counter Educação é a solução para impasses criados pela inteligência artificial, diz especialista italiano – Forsething

Educação é a solução para impasses criados pela inteligência artificial, diz especialista italiano

Gabriele Mazzini é um especialista italiano em governança e regulamentação de inteligência artificial (IA). Ele é reconhecido como o principal nome por trás da proposta da Lei de IA da União Europeia (UE). Após 7 anos trabalhando com regulação da IA, deixou a Comissão Europeia. “Não estou feliz com algumas coisas, e acho que é hora de avaliar se essa primeira abordagem faz sentido”, disse ele, em entrevista a VEJA. “Meu trabalho agora é compartilhar essa experiência e promover um debate honesto sobre se certas escolhas foram corretas ou erradas.”

A principal crítica de Mazzini é que a lei europeia regulou modelos de propósito geral (modelos de fundação), como o ChatGPT, em uma fase muito inicial do mercado, o que ele considera uma movimentação preventiva excessiva. Para ele, ao regular a ferramenta em si, o desenvolvimento tanto do “bem” quanto do “mal” é impedido. Ele também criticou o excesso de aplicações qualificadas como “alto risco” e a incerteza criada pela má interação entre a Lei de IA e outras legislações da UE, como o GDPR, o que impacta negativamente as Pequenas e Médias Empresas (PMEs) na Europa.

Mazzini será um dos destaques da Campus Party. Ele considera importante que pessoas ao redor do mundo compreendam a complexidade e o impacto da regulação. O evento acontecerá no Distrito Federal entre os dias 18 e 22 de junho. Brasília também sediará a quarta edição do Fórum do Marco Regulatório de Inteligência Artificial, que tem como objetivo reunir especialistas e representantes de diversos setores para discutir a criação de um marco regulatório inclusivo e ético para a IA no Brasil. A seguir, os principais trechos da conversa com o italiano.

EVENTO - Campus Party de 2024: espaço para debates
EVENTO – Campus Party de 2024: espaço para debatesCampus Party/Divulgação

No ponto atual do desenvolvimento da inteligência artificial, é possível criar um corpo legislativo que regule tudo? Como você vê isso em nível mundial, considerando que a Europa já fez isso?

Eu sou um pouco cético quanto à ideia de que os governos devam regular tudo. Em grande parte, a IA já é regulada, ou pelo menos as ações que a IA realiza já o são. A IA é uma ferramenta que usamos para realizar tarefas que, hoje, na maioria das vezes, são feitas por humanos. Muitas dessas atividades — seja um banco concedendo crédito ou a decisão sobre uma condição de saúde por um dispositivo médico — já são reguladas. A questão principal é se a IA cria riscos completamente novos ou se ela dificulta a implementação de leis existentes. A menos que haja uma indicação clara de que a IA gera riscos totalmente inéditos (do que sou cético, incluindo teorias sobre riscos existenciais onde a IA poderia “assumir” a humanidade), a maioria das atividades da IA já está coberta. Pode haver, sim, a necessidade de adicionar algumas camadas de regulação para permitir o uso adequado da tecnologia. Os governos devem encontrar um equilíbrio. Se a regulação focar apenas nos riscos, provavelmente teremos pouca ou nenhuma IA, e isso geraria outros riscos: o risco de não ter IA. Eu concordo com a ideia de não regular excessivamente a ponto de parar o desenvolvimento da IA.

Você acha que áreas como a saúde, onde a IA afeta diretamente as pessoas, devem ser mais estritamente reguladas?

Sim, esse é exatamente o conceito central da Lei de IA da União Europeia: regular mais rigorosamente as áreas de alto risco. As aplicações de alto risco que você mencionou, como dispositivos médicos para diagnóstico, já são cobertas por legislação que exige que sejam seguros. Quando a IA é usada em áreas sensíveis, é fundamental criar mecanismos de supervisão. A questão real é o grau de supervisão. Quanto mais tentamos minimizar o risco, mais difícil se torna a experimentação da IA em certas áreas. Precisamos ser específicos sobre os tipos de riscos (discriminação, desempoderamento, etc.), não apenas dizer “risco da IA”. Devemos ser cautelosos, mas não totalmente avessos ao risco. Precisamos permitir a experimentação e o uso da IA, mesmo em áreas sensíveis, para que possamos fornecer os serviços de que precisamos. Por exemplo, em países onde faltam médicos ou enfermeiros, a IA pode preencher lacunas importantes. Mas se a IA for sujeita a uma quantidade excessiva de regulação, ela simplesmente não será implementada. Esse equilíbrio precisa ser encontrado.

Continua após a publicidade

A Lei de IA da UE foi uma das primeiras legislações globais sobre o tema. Você acha que o que é bom para a Europa é bom para o Brasil, Estados Unidos, África ou Ásia?

Essa é uma questão crucial no momento histórico atual. É muito difícil pensar em uma abordagem de “tamanho único” para a regulação da IA. Existem várias razões para isso. Valores diferentes: A IA é uma tecnologia muito baseada em valores, e as escolhas no treinamento do sistema refletem os valores de cada país. Ordenamentos jurídicos diferentes: Diferentes jurisdições já possuem regulamentações extensas em áreas como privacidade, plataformas digitais, trabalhadores digitais e serviços financeiros. Qualquer legislação de IA precisa se encaixar em um sistema já existente, e cada sistema é diferente. Objetivos diferentes: Um país pode querer desenvolver a IA em certas áreas para obter vantagem, enquanto outro pode ser mais avesso ao risco. O contexto socioeconômico de cada país também influencia as escolhas. Embora a UE tenha sido a primeira a apresentar essa legislação, agora há “contratempos”. Estão ocorrendo discussões sobre pausar a implementação da lei, pois a pressa em 2023 resultou em um texto legal que pode ser difícil de implementar. Isso significa um risco de a Europa ficar para trás em termos de competitividade tecnológica. Os governos europeus estão começando a repensar isso.

Considerando a agressividade de empresas asiáticas, como as chinesas, no mercado de IA, isso deve ser contemplado na legislação? É necessário fazer isso?

Eu sou um grande fã da livre concorrência e do livre mercado. No entanto, os operadores de mercado são diferentes, com grandes e pequenos players. Se queremos um mercado justo que atenda às necessidades locais, precisamos também promover a concorrência em nível local. Não se trata de regular contra as grandes empresas de tecnologia, mas de reconhecer que plataformas maiores criam mais riscos (por exemplo, na disseminação de desinformação). No que diz respeito à IA, quanto mais grandes empresas vendem modelos e ferramentas de IA para o mercado, maior é a necessidade de garantir transparência. Deveríamos ter a capacidade de construir sobre esses modelos, e não apenas sermos usuários passivos da tecnologia de outros, sem poder desenvolver nossas próprias soluções.

A questão do hardware e do consumo de energia para validar operações de IA é importante?

Sim, o hardware é um componente essencial. Ao pensar no impacto da IA, é preciso considerar toda a “cadeia” — hardware, dados, energia e data centers.Esses elementos são importantes não apenas para regular o impacto final da IA, mas também como condições habilitadoras para que um país ou governo se posicione no espaço de desenvolvimento da IA.

Você mencionou que deixou a Comissão Europeia porque não estava feliz. Pode explicar o que o deixou insatisfeito?

A principal razão foi o fato de a Lei de IA da UE regular modelos de propósito geral (modelos de fundação, como o ChatGPT). Houve um entusiasmo excessivo e um foco nos riscos sistêmicos após a entrada do ChatGPT no mercado. A regulação mudou do nível da aplicação para o nível da tecnologia/modelo. O problema é que, ao regular a ferramenta (o modelo), você impede o desenvolvimento tanto do bem quanto do mal. Eu, literalmente, não gostei dessa mudança de abordagem. Essa movimentação preventiva foi excessiva e, na minha opinião, impacta a competitividade da Europa, pois regula a tecnologia mesmo antes que o mercado se desenvolva completamente. Além disso, eu teria preferido que menos aplicações fossem qualificadas como de alto risco, já que há outras legislações relevantes. Por fim, a interação entre a Lei de IA e outras legislações da UE (como o GDPR e a Lei de Serviços Digitais) não foi bem pensada, criando incerteza para as empresas.

Continua após a publicidade

O que gera essa incerteza?

A incerteza faz com que as empresas não queiram investir, o que impacta o desenvolvimento da IA na Europa, especialmente para as PMEs (Pequenas e Médias Empresas). Grandes empresas têm recursos para lidar com a burocracia, mas as PMEs não. Essa legislação, tão abrangente e complexa, pode se tornar um problema para as empresas locais.

É senso comum que as ferramentas de IA podem “roubar” empregos. Qual sua opinião sobre isso? Devemos nos preocupar com o desenvolvimento dessa nova tecnologia?

Sim, essa é uma das minhas maiores preocupações em relação à IA. Eu espero que a IA, especialmente a generativa, seja capaz de automatizar tarefas que até agora eram principalmente humanas. Isso inclui não apenas trabalhadores de fábrica, mas também profissionais intelectuais, como advogados e médicos. Será difícil parar esse processo; a tecnologia vai avançar. Isso terá um impacto no trabalho humano, com alguns empregos desaparecendo e outros surgindo. Isso não é algo que se possa resolver facilmente com uma lei.

Qual a solução?

A solução está em investir em educação. Precisamos aceitar que essa tecnologia entrará e nos auxiliará ou até nos substituirá em certas atividades. No entanto, ela continuará sendo uma máquina, uma ferramenta imperfeita. Precisaremos de ferramentas intelectuais não apenas para fazer a transição para novos empregos, mas também para gerenciar eficazmente a IA que usaremos no local de trabalho. Essa será uma transição para a qual os governos precisam começar a pensar muito em breve.

Publicidade

About admin