A Inteligência Artificial tem assumido um papel cada vez mais proeminente na sociedade, o que levou a União Europeia e regulamentar esta tecnologia em ascensão.
A IA destaca-se como uma das tecnologias-chave do século XXI, trazendo benefícios substanciais em termos de eficiência, precisão e praticidade, e contribuindo positivamente para a economia europeia. As aplicações da IA têm melhorado os cuidados de saúde, aumentado a eficiência na agricultura, contribuído para a mitigação das mudanças climáticas e para a adaptação aos seus efeitos, e melhorado a eficiência da produção em diversos setores.
A IA é uma das principais prioridades da atual Comissão Europeia. A Presidente da Comissão, Ursula von der Leyen, comunicou a sua opinião em relação às implicações humanas e éticas da IA, bem como uma reflexão sobre a melhor utilização de grandes volumes de dados para impulsionar a inovação. O reconhecimento da importância da IA pela UE foi acompanhado de uma reflexão sobre como garantir a confiança nas tecnologias de IA e assegurar que não comprometem os direitos fundamentais na União Europeia.
No entanto, o Parlamento Europeu está atento às questões relacionadas à IA muitos anos antes de a Comissão torná-la uma de suas principais prioridades. Diversas resoluções sobre dados, robótica e inteligência artificial, aprovadas pelo Parlamento desde 2016, evidenciam a importância atribuída ao tema pelo Parlamento. As resoluções examinaram as diferentes implicações da IA, desde seu impacto no bem-estar e na educação até suas ramificações legais e industriais. Destacaram-se a necessidade de adotar uma abordagem centrada no ser humano, baseada no respeito aos direitos fundamentais, incluindo os princípios da Carta da União Europeia e o quadro de proteção de dados.
A IA é essencialmente um conjunto de tecnologias que combinam dados, algoritmos e capacidade computacional. Os avanços na computação e a crescente disponibilidade de dados são os principais impulsionadores do atual avanço da IA. No entanto, a questão central em torno da IA reside no fato de que ela depende do armazenamento, análise e acumulação de grandes quantidades de dados, incluindo dados pessoais, de diversas fontes. Isto implica um tratamento automatizado dos dados através de algoritmos e técnicas avançadas de processamento de dados. Estas características da IA despertam uma atenção especial pelos princípios básicos de proteção de dados e privacidade.
Os riscos inerentes ao desenvolvimento desta tecnologia, obrigam a União Europeia a aplicar a legislação relativa à IA, que representa um marco crucial, sendo o primeiro conjunto de regras sobre IA em todo o mundo. Este marco jurídico aborda os riscos associados à IA e posiciona a Europa como líder global neste domínio.
O objetivo principal da Lei da IA é estabelecer requisitos e obrigações claras para os criadores e utilizadores de IA, em simultanêo procuram aliviar o fardo administrativo e financeiro, especialmente para as pequenas e médias empresas (PME).
Inserida num conjunto mais amplo de medidas políticas, como o Pacote de Inovação em IA e o Plano Coordenado para a IA, a Lei da IA visa garantir a segurança e os direitos fundamentais das pessoas e das empresas. Estas medidas também pretendem impulsionar a adoção, o investimento e a inovação em IA em toda a União Europeia.
Um aspeto essencial destas novas regras é promover uma IA confiável, dentro e fora da Europa, assegurando que os sistemas de IA estejam em conformidade com os direitos fundamentais, a segurança e os princípios éticos. Além disso, a legislação visa abordar os riscos associados a modelos de IA altamente poderosos e impactantes.
A Lei da IA tem como objetivo garantir a confiabilidade dos sistemas de IA, fornecendo uma estrutura regulatória que aborda preocupações relacionadas à transparência e explicabilidade das decisões tomadas por estes sistemas. Tudo isto é crucial para evitar resultados indesejáveis, como discriminação ou injustiça, que podem surgir quando não se compreende completamente como um sistema de IA chegou a uma decisão ou previsão específica.
Embora existam algumas proteções oferecidas pela legislação atual, não são suficientes para lidar adequadamente com os desafios únicos apresentados pelos sistemas de IA. A Lei da IA preenche uma lacuna, estabelecendo um conjunto abrangente de regras destinadas a promover uma IA ética, confiável e segura, tanto para os cidadãos europeus quanto para o resto do mundo.
As medidas propostas têm como objetivo:
- Abordar os riscos inerentes às aplicações de IA de forma específica;
- Proibir práticas de IA que representem riscos considerados inaceitáveis;
- Identificar uma lista de aplicações consideradas de alto risco;
- Estabelecer requisitos claros para os sistemas de IA utilizados em aplicações de alto risco;
- Definir obrigações específicas para os produtores e fornecedores de aplicações de IA de alto risco;
- Exigir uma avaliação de conformidade antes que um sistema de IA específico seja lançado no mercado ou utilizado;
- Implementar medidas de aplicação após a introdução de um sistema de IA no mercado;
- Criar uma estrutura de governação que funcione a nível europeu.
Níveis de Risco
Nesta medida, a União Europeia criou quatro níveis de risco (Risco Inaceitável, Alto Risco, Risco Limitado e Risco Mínimo).
Todos os sistemas de IA que representem uma ameaça evidente à segurança, meios de subsistência e direitos das pessoas são considerados de risco inaceitável.
Os sistemas de IA considerados de alto risco abrangem áreas como:
- Infraestruturas críticas, como transporte, cujo mau funcionamento pode colocar em perigo a vida e a saúde dos cidadãos;
- Educação, onde sistemas de IA podem influenciar o acesso à educação e às trajetórias profissionais, como a pontuação em exames;
- Componentes de segurança de produtos, como aplicações de IA em cirurgia assistida por robôs;
- Emprego, gestão de trabalhadores e acesso a oportunidades de trabalho, incluindo software de classificação de currículos;
- Serviços essenciais públicos e privados, como sistemas de validação de crédito que podem recusar empréstimos;
- Aplicação da lei, que pode impactar os direitos fundamentais, como a avaliação da confiabilidade das evidências;
- Gestão de migração, asilo e controle de fronteiras, incluindo análise automática de pedidos de visto;
- Administração da justiça e processos democráticos, como soluções de IA para pesquisa de decisões judiciais.
Os sistemas de IA considerados de alto risco serão submetidos a uma série de obrigações e avaliações rigorosas antes de serem autorizados a entrar no mercado.
Os sistemas de IA de risco limitado, na Lei da IA, relacionam-se com os potenciais riscos ligados à falta de transparência na utilização da tecnologia. Esta legislação introduz obrigações específicas de transparência, tendo em vista garantir que os humanos sejam adequadamente informados quando necessário, promovendo assim a confiança no uso da IA. Por exemplo, ao interagir com sistemas de IA, como chatbots, as pessoas devem ser claramente informadas de que estão a interagir com uma máquina, permitindo-lhes tomar decisões conscientes. Além disso, os criadores devem garantir que os conteúdos produzidos por IA sejam identificados. Isso inclui a marcação de textos, áudios e vídeos produzidos artificialmente, especialmente quando se destinam a informar o público sobre questões de interesse público ou quando envolvem fake news.
A Lei da IA estabelece que a utilização de sistemas de IA de risco mínimo é permitida de forma livre e gratuita. Isto inclui aplicações como videojogos com funcionalidades de IA ou filtros de spam. A esmagadora maioria dos sistemas de IA atualmente em funcionamento na União Europeia inserem-se nesta categoria.
Uma vez que um sistema de IA está integrado no mercado, as autoridades assumem a responsabilidade pela fiscalização do cumprimento das regras, enquanto os criadores devem garantir a supervisão e monitorização humana adequada. Além disso, os fornecedores devem implementar sistemas eficazes de monitorização pós-comercialização.