Lei da Inteligência Artificial: acordo sobre regras abrangentes para uma IA fiável

IA Notícias


Os eurodeputados chegaram a um acordo político com o Conselho sobre um projecto de lei para garantir que a IA na Europa é segura, respeita os direitos fundamentais e a democracia, enquanto as empresas podem prosperar e expandir-se.

Na passada sexta-feira, ficou acordado um acordo provisório sobre a Lei da Inteligência Artificial. Este regulamento visa garantir que os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental sejam protegidos da IA de alto risco, ao mesmo tempo que impulsiona a inovação e torna a Europa um líder neste domínio. As regras estabelecem obrigações para a IA com base nos seus riscos potenciais e no seu nível de impacto.

Aplicações proibidas

  • Reconhecendo a potencial ameaça aos direitos dos cidadãos e à democracia colocada por certas aplicações da IA, os co-legisladores acordaram em proibir sistemas de categorização biométrica que utilizem características sensíveis (por exemplo, convicções políticas, religiosas, filosóficas, orientação sexual, raça);
  • a recolha não direccionada de imagens faciais da Internet ou de imagens de CCTV para criar bases de dados de reconhecimento facial;
  • reconhecimento de emoções no local de trabalho e nas instituições de ensino;
  • classificação social com base no comportamento social ou nas características pessoais;
  • Sistemas de IA que manipulam o comportamento humano para contornar o seu livre arbítrio;
  • IA utilizada para explorar as vulnerabilidades das pessoas (devido à sua idade, deficiência, situação social ou económica).

Isenções para a aplicação da lei

Chegou-se a acordo sobre uma série de salvaguardas e excepções restritas para a utilização de sistemas de identificação biométrica (RBI) em espaços acessíveis ao público para fins de aplicação da lei, mediante autorização judicial prévia e para listas estritamente definidas de crimes.

O RBI “pós-remoto” seria utilizado estritamente na busca selectiva de uma pessoa condenada ou suspeita de ter cometido um crime grave.

O RBI “em tempo real” obedeceria a condições estritas e a sua utilização seria limitada no tempo e no local, para efeitos de:

  • buscas orientadas de vítimas (rapto, tráfico, exploração sexual)
  • prevenção de uma ameaça terrorista específica e actual, ou
  • localização ou identificação de uma pessoa suspeita de ter cometido um dos crimes específicos mencionados no regulamento (por exemplo, terrorismo, tráfico, exploração sexual, homicídio, rapto, violação, assalto à mão armada, participação numa organização criminosa, crimes contra o ambiente).

Obrigações para os sistemas de alto risco

Os eurodeputados querem que os sistemas de IA classificados como de alto risco (devido ao seu potencial dano significativo para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito) sejam objecto de obrigações claras.

Os eurodeputados conseguiram incluir uma avaliação de impacto obrigatória dos direitos fundamentais, entre outros requisitos, aplicável também aos sectores dos seguros e da banca.

Os sistemas de IA utilizados para influenciar o resultado das eleições e o comportamento dos eleitores são também classificados como de alto risco. Os cidadãos terão o direito de apresentar queixas sobre os sistemas de IA e receber explicações sobre as decisões baseadas em sistemas de IA de alto risco que afectam os seus direitos.

Barreiras de protecção para os sistemas gerais de inteligência artificial

A fim de ter em conta a vasta gama de tarefas que os sistemas de IA podem realizar e a rápida expansão das suas capacidades, foi acordado que os sistemas de IA de uso geral (GPAI) e os modelos GPAI em que se baseiam terão de cumprir requisitos de transparência, tal como inicialmente proposto pelo Parlamento.

Os sistemas de IA de utilização geral e os modelos GPAI em que se baseiam terão de cumprir os requisitos de transparência inicialmente propostos pelo Parlamento, que incluem a elaboração de documentação técnica, o cumprimento da legislação comunitária em matéria de direitos de autor e a divulgação de resumos pormenorizados sobre os conteúdos utilizados na formação.

Para os modelos GPAI de elevado impacto com risco sistémico, os negociadores do Parlamento conseguiram garantir obrigações mais rigorosas.

Se estes modelos cumprirem determinados critérios, terão de realizar avaliações de modelos, avaliar e mitigar os riscos sistémicos, realizar testes contraditórios, informar a Comissão sobre incidentes graves, garantir a cibersegurança e informar sobre a sua eficiência energética.

Os eurodeputados insistiram também que, até à publicação de normas harmonizadas da UE, as GPAI com risco sistémico podem basear-se em códigos de práticas para cumprir o regulamento.

Medidas de apoio à inovação e às PME

Os eurodeputados querem garantir que as empresas, especialmente as PME, possam desenvolver soluções de IA sem a pressão indevida dos gigantes da indústria que controlam a cadeia de valor. Para o efeito, o acordo promove as chamadas “sandboxes” regulamentares e os testes em contexto real, estabelecidos pelas autoridades nacionais para desenvolver e treinar a IA inovadora antes da sua colocação no mercado.

Sanções e entrada em vigor

O incumprimento das regras pode dar origem a coimas que variam entre 35 milhões de euros ou 7% do volume de negócios global e 7,5 milhões ou 1,5% do volume de negócios, consoante a infracção e a dimensão da empresa.

Citações

No final do debate, o co-relator Brando Benifei (S&D, Itália) afirmou “Foi longo e intenso, mas o esforço valeu a pena. Graças à resiliência do Parlamento Europeu, a primeira legislação horizontal do mundo sobre inteligência artificial cumprirá a promessa europeia – garantindo que os direitos e as liberdades estão no centro do desenvolvimento desta tecnologia inovadora.

A implementação correcta será fundamental – o Parlamento continuará a acompanhar de perto, para garantir o apoio a novas ideias de negócio através de “sandboxes” e regras eficazes para os modelos mais poderosos”.