O Que É a Lei de IA da UE? Resumo dos Pontos Principais em 5 Minutos
Data de publicação • July 18, 2024
A União Europeia (UE) introduziu uma diretiva abrangente sobre o uso de inteligência artificial (IA), conhecida como o Ato de IA da UE.
Ela incentiva os europeus a confiarem em sistemas de IA e modelos de IA de propósito geral (GPAI) que representam um risco relativamente menor. Este artigo resume o Ato e o torna mais simples para profissionais e indivíduos comuns entenderem.
Aviso Legal: Chatsimple complementa as obrigações do Ato de IA da UE, mas não oferece aconselhamento jurídico. Consulte um advogado se precisar de conselhos ou sugestões relacionadas ao ato, ou consulte o Ato de Inteligência Artificial da União Europeia.
O que é o Ato de IA da UE?
O Ato de Inteligência Artificial da União Europeia regulamentará o desenvolvimento e/ou uso da IA. Ele aplica regras e regulamentos diferentes à inteligência artificial com base no risco que ela representa.
Aplica-se a provedores, implantadores, importadores, distribuidores e fabricantes de produtos envolvidos com IA e abrange todas as partes que desenvolvem, utilizam, importam, distribuem ou fabricam sistemas de IA. O ato não se limita aos limites da UE. Se qualquer região produzir um resultado fora da UE, o ato será aplicável quando o resultado for destinado a ser usado na região da UE.
É uma estrutura regulatória abrangente para a IA que implementa uma governança rígida para gerenciar o risco e a transparência para as partes envolvidas com a IA. Dependendo do tipo de não conformidade, as penalidades por não cumprir o Ato podem variar entre 7,5 milhões de euros, ou 1,5% do faturamento anual global, e 35 milhões de euros, ou 7% do faturamento.
Explorando a necessidade do Ato de Inteligência Artificial da UE
Desvendar as previsões que a IA faz é complicado. Pode não ser possível identificar exatamente por que uma certa decisão foi tomada. Embora a maioria dos sistemas de IA represente pouco ou nenhum risco, pode haver alguns que são arriscados e que você não pode confiar ao tomar decisões críticas. Por exemplo, em uma decisão de contratação, seria complicado entender o motivo por trás da seleção de um determinado candidato. Você não saberá com certeza se alguém foi injustamente prejudicado.
O Ato de IA ajuda os europeus a confiarem em sistemas de IA com risco mínimo ou limitado e a valorizarem suas contribuições desejáveis às operações humanas e das máquinas. O Ato esclarece o que é aceito e o que é proibido nas práticas e sistemas de IA.
O Ato de IA ajuda empresas e instituições com:
- Proibir práticas de IA que representem riscos inaceitáveis
- Determinar sistemas de IA de alto risco e estabelecer requisitos precisos para eles
- Definir obrigações para provedores e implantadores de sistemas de IA de alto risco
- Exigir avaliação de conformidade antes de colocar o sistema de IA em serviço ou no mercado.
- Estabelecer estrutura de governança a nível nacional e europeu.
Essa governança ajuda os europeus a confiarem em sistemas de IA e a usá-los com confiança. No nível europeu, o Comitê Europeu de Inteligência Artificial aconselhará e assistirá a Comissão e os Estados Membros para garantir que os regulamentos sejam aplicados de maneira consistente.
O Comitê aconselhará e assistirá a Comissão e os Estados Membros para facilitar a aplicação consistente e eficaz deste Regulamento.
Quem será afetado pelo Ato de IA da UE?
As obrigações do Ato de IA da UE serão aplicáveis a:
- Qualquer provedor estabelecido ou localizado na UE ou em um país terceiro que coloque ou coloque em serviço um sistema de IA ou modelo de IA de propósito geral (GPAI) no mercado da UE é um provedor.
- Qualquer implantador de sistemas de IA com um local de estabelecimento na UE. Eles podem estar localizados na UE.
- Se o provedor ou implantador de um sistema de IA tiver seu local de estabelecimento em um país terceiro (ou estiver localizado lá) e produzir um resultado do sistema de IA que será usado na UE.
O que o Ato de IA exige?
O Ato de Inteligência Artificial da União Europeia exige que empresas e instituições:
- Entendam o estado atual
- Verifiquem se já possuem sistemas de IA em uso ou em desenvolvimento. Verifique se em breve será possível adquirir algum sistema de IA de um fornecedor terceirizado. Se sim, adicione esses sistemas ao seu repositório de modelos.
Se você não tiver um repositório de modelos, considere criar um depois de entender sua exposição aos sistemas de IA. Mesmo que você não use sistemas de IA atualmente, provavelmente os usará em breve, considerando a crescente adoção de IA. É melhor preparar o repositório de modelos considerando a exposição atual e potencial aos sistemas de IA.
Classifique os riscos em seus sistemas de IA
De acordo com o Ato de IA da UE, existem quatro categorias de risco: Risco inaceitável, alto risco, risco limitado e risco mínimo.
Fonte: EY
Riscos inaceitáveis
Sistemas de IA que apresentam riscos inaceitáveis são proibidos. Esses sistemas podem utilizar:
- Identificação biométrica remota (IBR) em espaços públicos. Esses sistemas usam IA para reconhecer pessoas usando seus dados biométricos em espaços públicos. O reconhecimento facial é o mais comum, mas pode incluir identificação com base em características físicas, fisiológicas ou comportamentais.
- Vulnerabilidades de uma pessoa natural. Esses sistemas exploram uma pessoa ou um grupo devido à sua idade, deficiência ou condição social ou econômica. Eles são proibidos pelo Ato de IA da UE.
- Técnicas de influência subliminar. Sistemas que exploram as vulnerabilidades de um grupo específico em um nível abaixo do reconhecimento consciente são proibidos. Isso inclui técnicas enganosas que visam distorcer o comportamento de uma pessoa ou grupo prejudicando suas habilidades de tomada de decisão.
- Sistema de pontuação social. Sistemas que atribuem uma pontuação a cada cidadão com base em suas ações positivas e negativas. Ações positivas são desejáveis, como pagar impostos, enquanto ações negativas incluem crimes.
Altos riscos
O Ato de IA da UE permite riscos altos, mas eles devem cumprir vários requisitos durante a avaliação de conformidade. Você deve concluir a avaliação antes de liberar o produto para o mercado.
Você precisará registrar tais sistemas em um banco de dados da UE. Esses sistemas podem incluir:
- Infraestruturas que podem colocar vidas e saúde dos cidadãos em risco.
- Educação ou treinamento profissional que determina o acesso das pessoas à educação e cursos profissionais. Por exemplo, exames.
- Produtos com componentes de segurança usando IA.
- Sistemas que trabalham com emprego ou controlam o acesso de alguém ao emprego.
- Serviços públicos e privados essenciais, como sistemas de pontuação de crédito que gerenciam a chance de alguém obter um empréstimo.
- Sistemas que controlam e gerenciam a migração de indivíduos ou fornecem asilo a eles.
- Sistemas administrativos que trabalham com justiça e processos democráticos.
Esses sistemas estão sujeitos a obrigações rigorosas, como avaliação e mitigação de riscos. Eles exigem alimentação com conjuntos de dados de alta qualidade e manutenção de um registro de atividades. Ao trabalhar com sistemas de IA de alto risco, mantenha tudo documentado e garanta um alto nível de segurança e precisão.
Risco limitado ou mínimo
Para sistemas de risco limitado, você precisa manter transparência com o usuário. Eles devem saber que estão interagindo com IA. Exemplos comuns incluem chatbots que não são de alto risco. Eles devem informar aos usuários que estão trabalhando com IA.
No caso de risco mínimo, o Ato de IA da UE permite seu uso livre. Esses sistemas podem incluir filtros de spam ou jogos com IA.
Cumprir o Ato de IA
Se o sistema estiver na faixa de alto risco, certifique-se de que suas práticas de IA complementam o Ato de IA e seguem os regulamentos necessários.
Quando o Ato de IA da UE entra em vigor?
O Parlamento Europeu e os Estados Membros da UE aprovaram o Ato em 22 de abril de 2024 e 21 de maio de 2024, respectivamente. Após a publicação da lei no Jornal Oficial da UE, ela entrará em vigor após 20 dias.
Após seis meses, as proibições sobre sistemas de risco inaceitável entrarão em vigor.
Sistemas de IA de propósito geral (GPAI) que estiveram no mercado nos últimos 12 meses desde a promulgação do Ato terão 36 meses para se adequar.
Após 12 meses, as regras relacionadas a sistemas de IA de alto risco entrarão em vigor.
Ao final de 36 meses, sistemas de IA que são produtos ou componentes de segurança de um produto se tornarão regulados pelo Ato de IA da UE.
Aplicação do Ato de IA da UE
Diferentes autoridades aplicam o Ato de IA. Cada Estado Membro da UE estabelece ou designa pelo menos uma autoridade de notificação e uma autoridade de vigilância de mercado, garantindo que tenham os recursos necessários para desempenhar suas funções.
A autoridade de notificação define e conduz procedimentos de avaliação e designação necessários de forma imparcial. Por outro lado, a autoridade de vigilância de mercado aplica o Ato a nível nacional. Este órgão pode variar para sistemas de IA de alto risco. Quando um sistema de IA está em não conformidade, a autoridade de vigilância de mercado relatará à Comissão e às autoridades nacionais relevantes anualmente.
Se houver não conformidade com a obrigação do Ato de IA da UE ou um sistema de IA de alto risco cumprir o Ato, mas ainda representar um risco à saúde e segurança das pessoas, a autoridade de vigilância de mercado pode:
- Exigir que um operador relevante tome medidas corretivas, garantindo que os sistemas de IA não apresentem riscos semelhantes.
- Se o operador falhar, o sistema de IA em questão pode ser retirado do mercado.
A nível da UE, um Escritório de IA dentro da Comissão aplica os regulamentos. Esta comissão é assessorada e assistida pelos Estados Membros para aplicar efetivamente o Ato de IA. A comissão e o Comitê de IA recebem expertise técnica de um fórum de partes interessadas consultivas. Os tribunais nacionais dos Estados Membros da UE implementarão a Diretiva de Responsabilidade da IA se reclamações civis baseadas em culpa não contratual forem apresentadas a eles.
Os tribunais nacionais também podem exigir evidências sobre sistemas de IA de alto risco suspeitos de causar danos.
Usando IA que cumpre o Ato
Chatsimple, um agente de vendas de IA para seu site, cumpre as obrigações do Ato de IA da UE. Se você deseja adicionar as capacidades de vendas da IA ao seu site, experimente o Chatsimple sem se preocupar com a conformidade com o novo Ato de IA na região da UE.
Com um agente de vendas de IA da Chatsimple, você pode:
- Engajar cada visitante com IA para ajudá-los a encontrar respostas em segundos.
- Reduzir a taxa de rejeição enquanto constrói confiança e credibilidade.
- Aumentar a geração de leads e agendar reuniões com leads qualificados de forma tranquila.
A IA da Chatsimple é segura e eficaz sob o Ato de IA da UE.
Reserve 30 minutos para entender como aproveitar ao máximo em seu negócio.