Fonte: Agência Senado
Com variados exemplos práticos, a inteligência artificial (IA) vem mostrando a que veio. Ela tem o poder de facilitar a vida da sociedade, simplificando trabalhos complexos, aperfeiçoando a ação do poder público, acelerando avanços tecnológicos e aumentando a qualidade de vida das pessoas.
A coleta, o processamento e até a interpretação de dados estatísticos, por exemplo, que há bem pouco tempo atrás exigiam gente, trabalho e tempo aos montes, agora podem ser feitos ao toque de um botão, em questão de segundos.
Se não tiver paciência para ficar reescrevendo um e-mail até a versão desejada, a pessoa que dispõe de um aplicativo do tipo ChatGPT ou Copilot no computador consegue com ele ter a mensagem final ao seu gosto — curta ou longa, agressiva ou polida, informal ou formal.
Caso ela não tenha tempo para ler algum texto longo e rebuscado, o aplicativo pode produzir rapidamente um resumo bastante claro e confiável.
A IA também é capaz de produzir meras curiosidades ou passatempos. No ano passado, viralizou na internet uma fotografia construída artificialmente em que o papa Francisco aparece trajando um estiloso casaco branco de inverno. À primeira vista, ninguém diria que aquela imagem, de tão bem-feita, jamais existiu na realidade.
Mas há preocupações, e elas estão nos usos negativos e até criminosos da IA. Nesse quesito, também não faltam exemplos.
No início do ano, eleitores do estado de New Hampshire, nos Estados Unidos, receberam ligações telefônicas em que o presidente Joe Biden lhes pedia que não fossem às urnas votar nas eleições primárias estaduais. A voz era mesmo a do mandatário americano, que busca a reeleição, mas manipulada pela inteligência artificial para fazê-lo dizer algo que jamais saiu de sua boca.
Esse é um caso clássico da chamada deepfake. A palavra remete às fake news, mentiras apresentadas nas redes sociais ou nos aplicativos de mensagem instantânea como se fossem notícias verdadeiras. No caso das fake news, o internauta tem a possibilidade de acreditar ou não no que está dito ou escrito.
As deepfakes são mais traiçoeiras porque os vídeos ou áudios, produzidos sinteticamente por IA, se aproximam tanto da perfeição, como nos casos do papa e do presidente americano, que por vezes é difícil duvidar da veracidade deles.
O mau uso da IA preocupa o Brasil. Desde 2019, o Congresso Nacional discute projetos de lei que criam regras para a inteligência artificial no país, com o objetivo principal de proteger os cidadãos e a democracia. Sendo um tema complexo, ainda nenhum desses projetos foi aprovado.
Pelo fato de a lei reguladora da inteligência artificial não estar pronta, o Tribunal Superior Eleitoral (TSE) baixou no mês passado uma inédita resolução, válida para a eleição deste ano para prefeito e vereador, que proíbe o uso de deepfake na campanha eleitoral e obriga o áudio ou o vídeo produzido por inteligência artificial a ser identificado claramente como tal para o eleitorado, ainda que o conteúdo não seja malicioso.
Nas três últimas votações, em 2022, 2020 e 2018, a Justiça Eleitoral incluiu as fake news entre as ameaças mais sérias ao processo eleitoral. As deepfakes fizeram algumas aparições, mas apenas de modo satírico, já que ainda eram rudimentares e a montagem saltava aos olhos.
Para a eleição municipal de outubro deste ano, dado o salto tecnológico, o TSE encara as deepfakes como a bola da vez. O político que descumprir as regras recém-baixadas terá a candidatura derrubada. Caso se eleja, o mandato será cassado e ele ficará inelegível.
Se forem notificadas e não retirarem o conteúdo ilícito do ar, as big techs, empresas responsáveis pelas redes sociais ou pelos aplicativos de mensagem instantânea, também sofrerão punições.
Nas discussões sobre as regras para a próxima eleição municipal, o presidente do TSE, ministro Alexandre de Moraes, afirmou que a Justiça Eleitoral agirá com rigor para que a IA “não anabolize as milícias digitais na utilização da desinformação para captar a vontade do eleitor e desvirtuar o resultado da eleição”.
Na mesma ocasião, a embaixadora da União Europeia no Brasil, Marian Schuegraf, chegou a dizer que a IA manipulada tem o poder de levar as democracias a sucumbir.
Da mesma forma que a falsa gravação telefônica de Joe Biden, outras deepfakes afetaram processos eleitorais pelo mundo afora nos últimos meses.
Na Argentina, o presidenciável Sergio Massa, derrotado por Javier Milei, apareceu num vídeo falso cheirando cocaína. Na Eslováquia, o candidato parlamentar Michal Simecka foi vítima de um áudio forjado em que ele falava sobre comprar os votos da comunidade cigana.
Em dezembro, o papa Francisco alertou para o risco de a inteligência artificial ser desvirtuada em nome “do egoísmo, do interesse próprio, da ânsia de lucro e da sede de poder”.
Na avaliação de Celina Bottino, diretora de projetos do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), a resolução do TSE é uma espécie de “band-aid” aplicado de forma emergencial e provisória sobre uma vulnerabilidade muito específica enquanto o Congresso Nacional não aprova uma regulação definitiva que seja capaz de prevenir e remediar as manipulações nas mais diversas áreas da sociedade, e não apenas nas campanhas eleitorais.
Para Bottino, o ideal é que as regras para a IA sejam mais abrangentes e contenham princípios, em vez de elencarem casos muito particulares de mau uso da inteligência artificial:
— A tecnologia está avançando com uma velocidade cada vez maior. A cada minuto surge uma especificidade nova. Quando a regulação da inteligência artificial começou a ser estudada no Brasil, poucos anos atrás, por exemplo, ainda não existia todo este boom da IA generativa [que cria conteúdo original de vídeo, áudio, texto etc.]. Se a regulação for muito detalhada, fechada e rígida, ela correrá o risco de se tornar datada e ineficaz muito rapidamente e não contemplar as tecnologias que aparecerem no futuro.
O consultor legislativo do Senado Frederico Quadros D’Almeida, que atua na área de telecomunicações, concorda:
— Considerando a complexidade da questão e as diferentes aplicações envolvidas, uma regulamentação essencialmente principiológica pode ser uma solução mais simples para uma abordagem geral, combinada com regras prescritivas, dirigidas a cada tipo de aplicação. Dessa forma, conseguem-se simultaneamente uma coerência normativa global, garantida pelos princípios gerais, e a necessária granularidade, diante da multiplicidade de situações envolvidas. De todo modo, provavelmente também serão necessárias normas específicas, que abordem de modo mais detalhado sistemas particulares de inteligência artificial.
D’Almeida foi integrante de uma comissão de juristas que o Senado criou em 2022 para discutir a inteligência artificial, ouvir especialistas e analisar os projetos de lei em pauta para depois sugerir ao Congresso um anteprojeto que contemplasse os pontos mais necessários.
Foram considerados projetos do deputado federal Eduardo Bismarck (PDT-CE) e dos senadores Styvenson Valentim (Podemos-RN) e Veneziano Vital do Rêgo (MDB-PB).
No ano passado, o texto da comissão de juristas foi apresentado como projeto de lei pelo senador Rodrigo Pacheco (PSD-MG), presidente do Senado. Atualmente, o PL 2.338/2023 está em análise numa comissão dedicada exclusivamente ao tema, a Comissão Temporária Interna sobre Inteligência Artificial no Brasil, que prevê concluir seus trabalhos e votar o projeto ainda neste semestre.
— Um dos principais objetivos do projeto é estabelecer direitos e proteger o elo mais vulnerável em questão, a pessoa natural que já é diariamente impactada por sistemas de inteligência artificial — explica Pacheco.
A Comissão Temporária Interna sobre Inteligência Artificial no Brasil também estuda um projeto alternativo apresentado pelo senador Astronauta Marcos Pontes (PL-SP).
O presidente da comissão e o relator do projeto são, respectivamente, os senadores Carlos Viana (Podemos-MG) e Eduardo Gomes (PL-TO). Viana acrescenta:
— Outra preocupação é não tolher a inovação e o desenvolvimento tecnológico. Se criarmos responsabilidades e riscos exagerados e riscos para os desenvolvedores, eles sairão do Brasil e migrarão para algum país onde a legislação seja mais favorável, o que acabará fazendo com que compremos a tecnologia do exterior. De qualquer forma, a dignidade humana e a possibilidade de o Judiciário agir [em casos de abuso] são pontos inegociáveis. Vamos entregar ao país um projeto moderno.
Na avaliação de Fernanda Rodrigues, coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (Iris), a proteção da dignidade humana é um ponto inegociável na regulação da IA. Segundo ela, tanto os desenvolvedores de IA quanto os utilizadores terão que seguir parâmetros bem claros nesse sentido e, em caso de desobediência, deverão ser responsabilizados:
— Pensemos no caso do reconhecimento facial para fins de segurança pública nas ruas, nas estações de metrô, nos estádios de futebol — Rodrigues exemplifica. — A inteligência artificial pode repetir e reforçar aquele mesmo viés historicamente racista do policiamento humano. O policiamento preditivo via IA poderá intensificar a prisão de uma parte da população que já sofre com o encarceramento injusto e em massa. Precisaremos de exigências de transparência na lei sobre IA.
Essa, aliás, é uma das preocupações do Conselho Nacional de Justiça (CNJ), que desde 2020 tem uma resolução que permite o uso da inteligência artificial para acelerar os processos e as tomadas de decisão desde que se tomem cuidados para evitar erros de julgamento decorrentes de preconceito.
Segundo Fernanda Rodrigues, a recente explosão da inteligência virtual exige que o poder público também comece a investir na educação digital da população, a partir da escola, para que as pessoas aprendam a suspeitar do material disponível na internet e até identificar as deepfakes, de modo a não serem enganadas.
Na semana passada, o Parlamento Europeu aprovou a primeira lei mundial de regulação ampla da inteligência artificial. Cada uso específico da IA foi enquadrado num nível diferente de risco para o ser humano, com punições proporcionais a cada risco. A lei, que valerá nos 27 países da União Europeia, tem semelhanças com o projeto em análise no Senado.
Fonte: Agência Senado