A emergência das tecnologias de inteligência artificial (IA) trouxe à tona não apenas inovações transformadoras em campos como medicina e educação, mas também desafios éticos e legais complexos.
Um desses desafios é o desenvolvimento e a disseminação de deepfakes, conteúdos altamente realistas criados por IA que podem distorcer a realidade, imitando indivíduos reais em ações ou declarações que nunca ocorreram.
Esta capacidade tem um potencial especialmente perturbador quando aplicada ao contexto político e eleitoral, onde a verdade e a confiança são pilares fundamentais.
Diante desse cenário, o Tribunal Superior Eleitoral (TSE) adotou medidas regulatórias visando proteger o processo democrático dessas ameaças digitais.
Por meio da Resolução 23.610/2019, e sua subsequente alteração pela Resolução 23732/2024, o TSE estabeleceu normas específicas para o uso de IA na criação e propagação de conteúdo durante as eleições.
Essas regulamentações buscam assegurar a integridade da propaganda eleitoral, limitando o uso de tecnologias que possam deturpar a informação entregue aos eleitores.
Essa legislação inovadora proíbe explicitamente a utilização de IA para gerar ou espalhar informações falsas, como deepfakes, que tenham o potencial de influenciar indevidamente os eleitores ou denegrir candidatos.
Adicionalmente, introduz uma obrigação de transparência para qualquer conteúdo gerado por IA que seja utilizado de maneira legítima na propaganda eleitoral, exigindo que tal conteúdo seja claramente marcado como produzido por IA. Esta medida visa garantir que os eleitores possam identificar e compreender a natureza do conteúdo com o qual interagem, promovendo uma escolha informada e consciente.
Com a adoção dessas diretrizes, o TSE demonstra um compromisso significativo com a luta contra a desinformação e a salvaguarda da integridade das eleições.O Brasil se posiciona, assim, como um líder na busca por soluções para os desafios impostos pela rápida evolução das tecnologias digitais, enfatizando a necessidade de regulamentação cuidadosa para evitar que o avanço tecnológico prejudique a confiança pública nas instituições democráticas.
Contudo, quão eficaz e producentes seriam tais medidas? O que são deepfakes, afinal?
Breve histórico do aprendizado de máquina e o surgimento dos deepfakes
No cerne das reflexões sobre Direito Eleitoral e o impacto revolucionário dos deepfakes, encontramos uma trajetória tecnológica marcada por inovações e questionamentos éticos profundos. A jornada da inteligência artificial, desde os seus conceitos teóricos iniciais até a materialização em aplicações práticas, ilustra a complexa interação entre o avanço tecnológico e suas implicações na sociedade.
O artigo pioneiro de Alan Turing, “Computing Machinery and Intelligence“, publicado em 1950, desafiou as fronteiras do conhecimento ao questionar: “As máquinas podem pensar?”
Turing propôs o que agora é conhecido como o Teste de Turing, um critério para avaliar a capacidade de uma máquina em exibir comportamentos indistinguíveis dos de um ser humano. Essa ideia não apenas lançou as bases conceituais para a inteligência artificial, mas também iniciou um diálogo contínuo sobre as potencialidades e limites da máquina em replicar aspectos da inteligência humana.
Turing propôs a ideia de que, se uma máquina pudesse aprender e adaptar-se por meio de experiências, ela poderia, em teoria, exibir comportamentos indistinguíveis dos humanos. Inspirados por essa visão, pesquisadores começaram a explorar modelos computacionais que poderiam simular o processo de aprendizagem do cérebro humano, levando ao desenvolvimento das redes neurais.
Essas redes são compostas por camadas de neurônios artificiais, projetadas para processar informações de maneira análoga ao cérebro humano, aprendendo a reconhecer padrões complexos a partir de grandes conjuntos de dados.
Assim, as ideias pioneiras de Turing não apenas desbravaram novos caminhos para a computação, mas também forneceram o impulso intelectual necessário para a criação das redes neurais, um componente essencial na evolução da inteligência artificial moderna.
Nos anos seguintes, houve um rápido progresso, incluindo a criação do primeiro programa capaz de aprender a jogar damas e o desenvolvimento do Perceptron, um dos primeiros modelos de redes neurais, por Frank Rosenblatt em 1957. Estes avanços iniciais revelaram o potencial das máquinas para realizar tarefas que exigiam capacidades cognitivas humanas, alimentando a imaginação de cientistas e do público em geral.
Contudo, a IA enfrentou períodos de inverno, durante os quais o entusiasmo inicial deu lugar ao ceticismo devido a limitações técnicas e desafios inesperados. O primeiro desses períodos ocorreu no final dos anos 1970, seguido por outro na década de 1980, quando as expectativas exageradas não se materializaram, resultando em uma redução significativa no financiamento e interesse pela área.
Apesar desses desafios, a pesquisa persistiu e, nos anos 90, a IA começou a experimentar um renascimento, impulsionado pelo aumento da capacidade computacional e pelo desenvolvimento de algoritmos mais sofisticados. Foi nesse período que as redes neurais, após anos de estagnação, começaram a receber nova atenção.
A entrada no século 21 marcou o início de uma era de ouro para a IA, especialmente com o advento dos “big data” e avanços significativos em algoritmos de aprendizado profundo. Geoffrey Hinton, frequentemente referido como o “padrinho do deep learning“, junto a seus colegas, revolucionou o entendimento e a aplicação das redes neurais esses sistemas são compostos por camadas de neurônios artificiais que processam informações recebidas, ajustando seus parâmetros internos — um processo conhecido como “treinamento” — para melhor reconhecer padrões e realizar tarefas específicas.
Os avanços significativos nos chips e nos hardwares modernos desempenharam um papel crucial na facilitação do trabalho pioneiro de Geoffrey Hinton em inteligência artificial (IA) e, em particular, no desenvolvimento do deep learning.
A evolução do hardware, especialmente a introdução e o aperfeiçoamento de unidades de processamento gráfico (GPUs), foi fundamental para superar os desafios computacionais associados ao treinamento de redes neurais profundas.
As GPUs, originalmente projetadas para acelerar gráficos em jogos de computador, provaram ser excepcionalmente eficazes na execução dos cálculos paralelos necessários para o aprendizado profundo. Elas podem processar muitas operações em paralelo, acelerando significativamente a velocidade de treinamento das redes neurais.
Esta capacidade permitiu a Hinton e outros pesquisadores experimentar e iterar modelos de IA mais complexos e em maior escala do que nunca, contribuindo diretamente para os avanços no campo do reconhecimento de voz e imagem, e eventualmente, na criação de tecnologias como os deepfakes.
Geoffrey Hinton possui um currículo impressionante que reflete sua contribuição seminal à IA. Ele é um psicólogo cognitivo britânico-canadense e cientista da computação, mais conhecido por seu trabalho em redes neurais artificiais.
Hinton completou seu PhD em Inteligência Artificial na Universidade de Edimburgo em 1978, onde suas pesquisas já indicavam um profundo interesse nos mecanismos de aprendizado do cérebro humano e sua aplicação em máquinas.
Ao longo de sua carreira, Hinton trabalhou em várias instituições acadêmicas de renome, incluindo a Universidade Carnegie Mellon e a Universidade de Toronto. Ele é frequentemente citado como um dos pioneiros do deep learning, graças às suas inovações fundamentais, como o algoritmo de propagação reversa para treinar redes neurais e a introdução da técnica de dropout para evitar o sobreajuste em redes neurais profundas.
Em reconhecimento às suas contribuições, Hinton recebeu vários prêmios prestigiosos, incluindo o Prêmio Turing em 2018, muitas vezes referido como o “Nobel da Computação”, que compartilhou com Yann LeCun e Yoshua Bengio pelo seu trabalho em deep learning. Atualmente, ele divide seu tempo entre a Universidade de Toronto e o Google Brain, continuando sua pesquisa em IA e orientando a próxima geração de cientistas.
Enfim, o que é um deepfake?
Essas redes neurais, especialmente as convolucionais, desempenham um papel crucial em diversas tecnologias de reconhecimento, como o reconhecimento facial e a detecção de voz.
Essas redes são projetadas para processar dados em forma de matriz e vetores binários, tornando-as excepcionalmente boas na análise de imagens.
Ao serem treinadas com vastos conjuntos de dados de imagens, elas aprendem a identificar e distinguir características faciais complexas, imputando uma matemática da vida invisível aos olhos humanos, permitindo que sistemas de segurança e aplicativos móveis utilizem reconhecimento facial com alta precisão.
Similarmente, no campo do processamento de linguagem natural, as redes neurais transformaram a capacidade dos sistemas em compreender e gerar linguagem humana, facilitando interfaces de conversação natural em assistentes virtuais e aplicativos de tradução.
Neste cenário de avanços contínuos, surge o fenômeno dos deepfakes, uma aplicação direta e potencialmente perturbadora do deep learning. Utilizando técnicas avançadas de modelagem e geração de imagens, os deepfakes são capazes de criar vídeos e áudios altamente convincentes, onde pessoas parecem dizer ou fazer coisas que nunca de fato aconteceram.
Essa capacidade de manipular a realidade audiovisual levanta questões significativas sobre a autenticidade e a veracidade das informações, especialmente em contextos sensíveis como o político e o eleitoral, onde a difusão de informações falsas pode ter consequências profundas na integridade do processo democrático, especialmente no contexto atual onde a apresentação de candidaturas e propostas se concentra primordialmente na internet e nas redes sociais, locais de excelência para a sua avassaladora, e praticamente incontrolável, disseminação.
A partir das fundações teóricas estabelecidas por Turing até as inovações contemporâneas em redes neurais e deep learning, a trajetória da inteligência artificial reflete um paradoxo fascinante: a capacidade de criar máquinas que imitam a inteligência humana também nos obriga a confrontar os desafios éticos e sociais emergentes desta imitação.
Os deepfakes, como expressão máxima desta capacidade, servem como um lembrete pungente da necessidade de equilibrar inovação tecnológica com responsabilidade ética e legal, especialmente no contexto do direito eleitoral e da salvaguarda da democracia.
Neste cenário, a indagação que se coloca é: o TSE e a Justiça Eleitoral de uma forma geral conseguiriam combater, na perspectiva não só regulatória, mas sobretudo repressiva-jurisdicional, uma desinformação cada vez mais virtuosa e, digamos, quase-humana?
Como funciona uma deepfake imagética na prática
Dentro do escopo de nosso artigo sobre Direito Eleitoral e a influência dos deepfakes, é imperativo detalhar com precisão técnica como as redes neurais, particularmente as Convolutional Neural Networks (CNNs), processam e manipulam imagens para criar composições fotorrealísticas. Este processo complexo ilustra a capacidade de identificar, interpretar e reconstruir padrões faciais, fundamentando o desenvolvimento de deepfakes.
Ao receber uma imagem contendo um rosto para análise, a rede neural inicia o processo de desmonte dessa imagem em componentes mais básicos. Primeiramente, a imagem é transformada em uma matriz numérica, onde cada elemento da matriz representa um pixel da imagem original.
Essa representação matricial permite que a rede processe visualmente a imagem de maneira similar a como os seres humanos percebem características visuais, embora em um formato estritamente quantitativo.
A rede então procede para a aplicação de filtros convolucionais. Estes filtros, matematicamente representados por matrizes menores, são deslizados (ou “convolvidos”) sobre a matriz da imagem, analisando pequenas porções de pixels de cada vez. Esse processo extrai características essenciais da imagem, como bordas, texturas e padrões.
Em termos práticos, cada filtro é especializado na detecção de um tipo específico de característica visual, transformando a complexidade de um rosto humano em um conjunto de características básicas identificáveis.
À medida que a imagem avança através das camadas da rede neural, cada nova camada constrói uma representação mais abstrata e complexa das informações capturadas pela camada anterior.
Isso é feito através da combinação dos padrões detectados pelos filtros convolucionais em uma hierarquia de características, de simples a complexas, culminando na construção de um vetor de características de alto nível que encapsula a essência do rosto analisado.
Quando o objetivo é inserir este rosto em uma nova imagem, a rede utiliza este vetor de características para gerar uma representação digital do rosto que pode ser adaptada e sobreposta à nova cena. Ajustes são meticulosamente realizados para alinhar as características geométricas e fotométricas (como iluminação, perspectiva e tonalidade) do rosto com as da imagem destino, garantindo uma fusão visualmente coerente.
Este ajuste fino é crítico, pois assegura que o rosto inserido respeite as condições ambientais e de iluminação da imagem receptora, mantendo a uniformidade e a naturalidade da composição final.
A complexidade desse processo reflete não apenas o poder do aprendizado de máquina e do processamento de imagens, mas também os desafios éticos e legais emergentes em sua aplicação, especialmente em contextos eleitorais.
As técnicas descritas servem de fundamento para a criação de deepfakes, evidenciando a importância e a urgência de abordagens regulatórias e tecnológicas robustas para mitigar os riscos associados à manipulação de imagens e à disseminação de desinformação.
E daí vem a questão: regulamentar é preciso, viver não é preciso.
A tentativa de se regulamentar a IA no Brasil e na União Europeia
O recente acordo sobre o AI Act da União Europeia representa um marco significativo na regulamentação global da inteligência artificial (IA), estabelecendo um precedente para o equilíbrio entre inovação tecnológica e proteção dos direitos fundamentais.
Este acordo, alcançado após intensas negociações entre o Conselho e o Parlamento Europeu, reflete o compromisso da Europa com a liderança ética no desenvolvimento da IA, conforme destacado por Carme Artigas, secretária de Estado para Digitalização e Inteligência Artificial da Espanha. Ela enfatiza que o acordo aborda eficazmente os desafios globais em um ambiente tecnológico em rápida evolução, crucial para o futuro das sociedades e economias.
O AI Act é uma legislação emblemática que visa promover o desenvolvimento e a adoção de IA segura e confiável em todo o mercado único da UE, tanto por entidades públicas quanto privadas. A iniciativa cria um sistema de governança dentro da própria União Europeia, concedendo autonomia aos seus 27 Estados-membros para regulamentar o uso da IA, delimitando as competências europeias e permitindo regulamentações nacionais adicionais se desejado.
A essência do AI Act reside em sua abordagem baseada em riscos para a regulamentação da IA, categorizando os sistemas de IA de acordo com o potencial de causar danos à sociedade.
Sistemas com riscos mínimos ou inexistentes podem operar livremente, enquanto aqueles com riscos limitados estão sujeitos a obrigações de transparência leves. Sistemas de alto risco, por outro lado, serão permitidos no mercado da UE, mas com requisitos e obrigações rigorosos para garantir a segurança e a conformidade.
Em contraste, sistemas que apresentam riscos inaceitáveis, como manipulação cognitiva ou reconhecimento de emoções em locais de trabalho e escolas, serão proibidos, com exceções limitadas.
O acordo introduz novos elementos em comparação com a proposta inicial da Comissão Europeia, incluindo regras sobre modelos de IA de uso geral de alto impacto e um sistema revisado de governança com alguns poderes de aplicação em nível da UE.
Além disso, expande a lista de proibições, mas permite o uso de identificação biométrica remota pelas autoridades policiais em espaços públicos, sujeita a salvaguardas rigorosas.
Um aspecto notável do AI Act é a ênfase na proteção dos direitos fundamentais, exigindo que os implantadores de sistemas de IA de alto risco realizem uma avaliação do impacto sobre os direitos fundamentais antes de colocar um sistema de IA em uso.
Isso reflete uma preocupação crescente com a ética e a responsabilidade no desenvolvimento da IA, garantindo que a tecnologia sirva ao bem comum sem comprometer a dignidade humana ou a liberdade individual.
O AI Act também promove a inovação ao estabelecer sandboxes regulatórios de IA, que fornecem um ambiente controlado para o desenvolvimento, teste e validação de sistemas inovadores de IA.
Essa medida visa criar uma estrutura jurídica favorável à inovação, permitindo que os desenvolvedores testem novas tecnologias em condições reais, sob supervisão regulatória.
À sua vez, o projeto de lei brasileiro sobre a regulamentação da inteligência artificial (IA), discutido em audiência pública na Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA), destaca a necessidade de cautela no uso de dados pessoais.
Este projeto, de autoria do senador Rodrigo Pacheco, presidente do Senado, sob o número PL 2.338/2023, é derivado de um anteprojeto apresentado por uma comissão de juristas e visa estabelecer um marco regulatório para o uso da IA no país.
Um dos principais pontos de discussão é a intersecção da nova legislação com a Lei Geral de Proteção de Dados (LGPD), Lei nº 13.709, de 2018, que regula o tratamento de dados pessoais. A preocupação é que a regulamentação da IA não entre em conflito com a LGPD, mas que ambas possam coexistir harmoniosamente, garantindo a proteção dos dados pessoais dos cidadãos brasileiros.
Durante a audiência, especialistas e parlamentares enfatizaram a importância de equilibrar a inovação tecnológica com a proteção de direitos fundamentais. Lucas Borges de Carvalho, da Autoridade Nacional de Proteção de Dados (ANPD), destacou a conexão intrínseca entre a proteção de dados pessoais e a IA, especialmente em aplicações consideradas de alto risco.
A IA, ao processar grandes volumes de dados, incluindo dados pessoais, para o treinamento de algoritmos, pode gerar impactos significativos, especialmente em casos controversos que envolvem riscos elevados.
O senador Eduardo Gomes, relator da comissão, ressaltou a importância do debate para a construção de um texto legislativo que reflita as necessidades e realidades do Brasil, garantindo que a legislação seja construída com base em sugestões e contribuições de diversos setores da sociedade.
Além da proteção de dados, a audiência abordou a necessidade de uma regulamentação que promova a inovação e o desenvolvimento tecnológico, sem impor restrições excessivas que possam inibir o avanço da IA no país.
A discussão também tocou em temas como a importância da IA na saúde, exemplificada pelo uso da tecnologia no tratamento e prevenção de complicações do diabetes, mostrando o potencial da IA para melhorar a qualidade de vida dos cidadãos.
Dito tudo isso, cumpre, por fim, analisar como o Direito Eleitoral lidará com tudo isso, especialmente no contexto das vindouras eleições municipais de 2024, o que será tratado em artigo seguinte (parte 2).
Os artigos são de responsabilidade de seus autores