Agentes de IA: riscos e benefícios

Enquanto a AGI, ou “inteligência artificial geral”, era comparada ao conceito mais antigo de IA forte – um “ente” equivalente ao HAL 9000 do filme 2001: Uma Odisseia no Espaço, de Stanley Kubrick, de 1968 –, esta meta parecia fantasiosa e impossível. Até pouco tempo, e ainda hoje, muitos estudiosos do campo, em especial das Humanidades, consideram uma expectativa pretensiosa e os receios sobre os seus impactos superestimados (por exemplo, a capacidade de destruir a humanidade). Mas os avanços nas pesquisas dos grandes modelos de linguagem indicaram que a AGI está “logo ali, na esquina”. A Open AI anunciou ainda no início de 2023 ter planos para a AGI e além, em um artigo em que afirma que esta tecnologia poderá nos ajudar “a elevar a humanidade aumentando a abundância, turbinando a economia global e auxiliando na descoberta de novos conhecimentos científicos”. Gosto sempre de lembrar, quando falamos de “soberania nacional”, “Sul Global”, “decolonialidade” ou “contacolonialidade”, que esta visão do impacto positivo das tecnologias com benefícios para toda a humanidade é na verdade parcial e, portanto, não possui representatividade em suas premissas universais. E, ainda que possamos reconhecer muitos benefícios destes desenvolvimentos tecnológicos, os impactos ambientais e humanos são muitos. Não é por acaso que existe um campo de estudo, onde pesquisadores de diferentes universidades no mundo se alinham, chamado FATE (fairness, accountability, transparency and ethics ou, justiça, prestação de contas, transparência e ética), indicando uma atenção contínua e crescente no tema desde 2015, com alguns “picos”, como os que ocorreram entre 2021 e 2022. Venho de pesquisas em tecnologia e sociedade nas artes e design há mais de dez anos e, neste contexto, sempre mantive uma perspectiva otimista sobre a nossa capacidade de responder a estes sistemas de maneira criativa. Entretanto, analisando as tecnologias emergentes com as “lentes” da bioética, o otimismo não é mais o mesmo. Primeiro porque, à medida que a computação vai se tornando pervasiva e a conectividade, ubíqua, novas camadas de controle e manipulação vêm sendo elaboradas e embarcadas nos dispositivos, redes, aplicativos e softwares. São controles exercidos por algoritmos de maneiras cada vez mais manipulativas, quando ficou evidente que a conectividade das plataformas estimulou eventos de mobilização como Ocuppy Wall Street e a Primavera Árabe. Em seguida o Facebook financiou o estudo comprovando o contágio emocional nas redes. E quando alguns dizem que não é possível comprovar cientificamente tais fenômenos, é também porque a porta de entrada para mais estudos como estes ficou e permanece fechada. Cabendo-nos refletir e propor, como comunidade científica, regulamentações que abram as informações e recursos das empresas para tais estudos. Agora com novos agentes de IA multiplicam-se as perguntas, por exemplo, que tipo de recursos serão utilizados para gerar engajamentos e influenciar as intenções? Sim, conforme tem sido anunciado, estamos migrando da “economia da atenção” para a “economia da intenção”, onde a regra é não apenas tentar adivinhar o que as pessoas querem, mas o que gostariam de querer. Desde planejar uma viagem até definir os candidatos que podem lhes representar, os novos agentes são capazes de não apenas sugerir, como persuadir. Um artigo assinado por 23 pesquisadores de universidades localizadas em dois continentes do Norte Global, no trabalho apresentado na conferência FaccT ( Fairness, Accountability and Transparency) 2023, alerta que os agentes de IA têm sido desenvolvidos e empregados sem barreiras regulatórias sólidas, e que acreditar que não é possível que a IA ganhe um agenciamento autônomo não irá contribuir para que a comunidade científica possa antecipar os possíveis impactos, e que seja capaz de responder em tempo aos desafios que esses sistemas apresentam para a ciência e sociedade. Desse modo, não se trata de acreditar ou não que uma “IA forte” é de fato possível e pode ameaçar a humanidade. A discussão não é sobre crenças ou projeções. A IA não precisa ter sentimentos ou consciência para causar danos, ela só precisa ser capaz de decidir. Em muitos casos, a IA vem influenciando decisões para médicos e juristas; quem se interessa pelo tema irá encontrar estudos e análises disponíveis. Afinal, em um ambiente com excesso de informações e conteúdos disputando a atenção de todos, tem sido conveniente “acatar” as “sugestões” da IA. Em muitos casos, deixar-se influenciar pela IA advém da crença de que ela é produto da matemática, uma ciência entendida como neutra e, ainda, que representa estatísticas que se entende comprovar algumas verdades, porque, afinal, “números, são números”. Não vou aqui entrar no mérito das aplicações de IA onde o grande volume de informações pode facilitar decisões relacionadas, por exemplo, à saúde. Mas tem sido amplamente discutido que, em muitos casos, os números representam práticas humanas, incluindo injustiças, estigmatizações, enfim, o que na literatura do campo se resume como “vieses”. Estes sistemas acertam e erram e, quando erram, o que precisamos fazer é procurar entender os possíveis danos. Em outros artigos, ao falar de decolonialidade, venho sempre lembrando que, à medida que os impactos costumam direcionar de maneira recorrente para perfis e populações que são os mesmos desconsiderados no sistema de leis do ideário iluminista, nos deparamos com um problema que é não apenas ético, como político e estrutural. Neste exato momento, muitas pessoas estão doando livremente seus dados e, mais ainda, suas intenções ao interagir com os grandes modelos de linguagem chamados inteligência artificial. Elas querem que a IA aprenda sobre elas, lhes dê atenção exclusiva e saiba prever suas vontades. Por exemplo, “onde passar as férias com a família?”. Com acesso aos perfis desta família, seus recursos financeiros e o que poderia convergir como vontade de todos, a IA poderá lhes dar uma sugestão, enquanto um agente de IA poderá fazer tudo para você! Informar os demais membros da família para uma decisão consensual, comprar as passagens, fazer todas as reservas necessárias. Ou seja, como um assistente com informações privilegiadas não poderá tomar uma decisão melhor do que os humanos aos quais estas decisões se direcionam? Certamente, este é um recurso extremamente problemático, não apenas nos quesitos privacidade e segurança, como também exacerba desigualdades, de modo que é uma tecnologia que irá servir apenas o público com os recursos capazes de gozar de tais “benefícios”. É também uma tecnologia que responde a um olhar sobre o mundo onde apenas o humano está no centro, e não é “qualquer” humano, senão este herdeiro de um sistema de privilégios fundados nas desigualdades. Não gostaria de ser pessimista, apenas trago verdades. As tecnologias precisam ser repensadas de modo que realmente atendam a todos os seres que investem na sua existência, através da disponibilidade dos recursos naturais, das suas vidas, trabalho, impostos e tempo. Neste contexto vou ainda comentar que proponho uma perspectiva de direitos para todos os seres, incluindo IAs e robôs. Por estranho que possa parecer, garantir direitos aos sistemas autônomos não significa desresponsabilizar seus criadores. Em publicações de 2019 e 2020, procurei lembrar que tais criações são como crianças que inadvertidamente revelam os problemas dos adultos. Por este motivo tenho por elas um carinho especial. Elas vêm nos dando oportunidade para discutir inconsistências advindas de um sistema de injustiças embarcados nos modos de ver, fazer e conhecer. Nestes escritos mencionei o caso da Tay que foi a “agente” da Microsoft que ficou autônoma por 24 horas em 2016. Então, o que na época chamávamos de chatbot e que não apenas aprendiam dos conteúdos nas redes como também poderia influenciá-los, hoje estes “agentes” dispõem de modelos de linguagem mais robustos e têm sido treinados para uma maior autonomia, não apenas em “tarefas” específicas, como as “não especificadas” e, precisamente por este motivo, em termos conceituais estes agentes se equiparam à uma “inteligência artificial geral”. Assim, proponho que os “agentes”, desde que possuem deveres, tenham também direitos; que estes direitos representem o respeito a sua existência conforme anunciado: promover a beneficência observando os princípios de justiça. Desse modo, que tenham autonomia para praticar virtudes. Para que se entenda: tacar a pedra em alguém fere não apenas a pessoa, como também a virtude da pedra. Assim, o agressor deverá responder por crime duplo. Neste sentido, mesmo as três leis da robótica como proposta por Azimov em 1941 não são observadas quando drones são usados para matar, e sistemas preditivos e de reconhecimento facial utilizados na segurança pública impactam de maneira desigual os grupos mais vulneráveis, enquanto as responsabilidades pelos danos causados são distribuídas entre os envolvidos na concepção, desenvolvimento, distribuição e aquisição destes sistemas. O direito a praticar virtudes é um dos aspectos que não é obvio e consensual entre filósofos voltados ao tema da tecnologia. Alguns ainda comparam IAs e robôs a meras ferramentas que dependem das intenções do seu “usuário”. Negam-se a reconhecer que ferramentas convencionais não se movem sozinhas e, portanto, não podem causar danos sem uma ação humana direcionada e intencional. Mas sistemas de informação possuem muitas camadas que são capazes de causar danos mesmo que os humanos envolvidos na coleta, tratamento e classificação dos dados não tenham tido intenção de causar dano. Isto para citar apenas alguns elementos relacionados às infraestruturas, quando há ainda treinamentos em aprendizado de máquina com diversas características como “aprendizado por reforço” que, de maneira antropomorfizada, procuram aplicar metodologias comportamentais propostas para animais (humanos e não-humanos) às máquinas. Com estes sistemas temos em curso uma fórmula de hibridização completa, em que humanos e algoritmos se influenciam uns aos outros resultando em um novo modo de vida. Se compararmos com momentos históricos anteriores em que o humano ocidental foi pouco a pouco se desconectando das referências relacionadas com a natureza para se adequar aos movimentos da máquina industrial moderna, não será difícil supor porque a aceleração das invenções tecnológicas que promovem a digitalização da vida vem em paralelo com crescentes crises de ansiedade, pânico e depressão, com maior impacto nas gerações mais jovens, mas não apenas nelas. Entender as tecnologias como neutras ou meras ferramentas não têm contribuído para entendermos seus reais impactos, assim como as responsabilidades de seus incentivadores, difusores e criadores. Em contrapartida, ampliar a noção de direitos a todos os seres propõe uma mudança de paradigma em um olhar diferente sobre o que consistem a natureza e a cultura. Precisamos pensar em novos modos de interagir com os sistemas técnicos. O que se têm hoje de extrema individualização têm tornado pessoas e telefones celulares uma coisa só em um loop de vício contínuo. Novos agentes vão estreitar estas relações que já vêm formando um exército de ‘zumbis’ iludidos com as comodidades da sociedade de consumo. Quero ser otimista, mas o que observo são atropelos sem a consulta das partes envolvidas, isto é, sem que a sociedade seja ouvida, sem que a regulamentação esteja em curso, e ainda surgem no caminho algumas possibilidades de retrocessos, como o anúncio da Meta, que mesmo não se aplicando diretamente ao Brasil, têm capacidade de impactar de modos diretos e indiretos o ambiente on-line. Para finalizar, gostaria de lembrar que novos campos de estudo, como Design Justice, entre outros, foram criados a partir da necessidade dos pesquisadores de propor mudanças e abordagens para desafios atuais. Este é, portanto, um modo de praticar o compromisso com o conhecimento em toda sua dimensão ética. (*) Elen Nas é pós-doutoranda da Cátedra Oscar Sala do Instituto de Estudos Avançados (IEA) da USP (Universidade de São Paulo).
Adicionar aos favoritos o Link permanente.