OpenAI CEO Sam Altman espera AGI, ou inteligência artificial geral—IA que supera os humanos na maioria das tarefas — por volta de 2027 ou 2028. A previsão de Elon Musk é 2025 ou 2026e ele tem reivindicado que ele estava “perdendo o sono por causa da ameaça do perigo da IA”. Tais previsões estão erradas. Como o limitações da IA atual se torna cada vez mais clara, a maioria dos pesquisadores de IA chegou à conclusão de que simplesmente construir chatbots maiores e mais poderosos não levará à AGI.
No entanto, em 2025, a IA ainda representará um risco enorme: não de superinteligência artificial, mas de uso indevido humano.
Podem ser abusos não intencionais, como advogados que confiam excessivamente na IA. Após o lançamento do ChatGPT, por exemplo, vários advogados foram sancionados por usarem IA para gerar briefings judiciais errados, aparentemente inconscientes da tendência dos chatbots de inventarem coisas. Em Colúmbia Britânicaa advogada Chong Ke foi condenada a pagar os custos do advogado adversário depois de incluir casos fictícios gerados por IA em um processo judicial. Em Nova IorqueSteven Schwartz e Peter LoDuca foram multados em US$ 5.000 por fornecerem citações falsas. Em ColoradoZachariah Crabill foi suspenso por um ano por usar processos judiciais fictícios gerados pelo ChatGPT e culpar um “estagiário jurídico” pelos erros. A lista está crescendo rapidamente.
Outros abusos são intencionais. Em janeiro de 2024, sexualmente explícito deepfakes de Taylor Swift plataformas de mídia social inundadas. Essas imagens foram criadas usando a ferramenta de IA “Designer” da Microsoft. Embora a empresa tivesse proteções para evitar a geração de imagens de pessoas reais, digitar incorretamente o nome de Swift foi suficiente para contorná-las. Desde então, a Microsoft fixo esse erro. Mas Taylor Swift é a ponta do iceberg, e os deepfakes não consensuais estão proliferando amplamente – em parte porque ferramentas de código aberto para criar deepfakes estão disponíveis publicamente. A legislação em curso em todo o mundo procura combater os deepfakes na esperança de reduzir os danos. Ainda não se sabe se é eficaz.
Em 2025, será ainda mais difícil distinguir o que é real do que é inventado. A fidelidade do áudio, texto e imagens gerados por IA é notável, e o vídeo será o próximo. Isto poderia levar ao “dividendo do mentiroso”: aqueles que ocupam posições de poder repudiam as provas do seu mau comportamento, alegando que são falsas. Em 2023, Tesla argumentou que um vídeo de Elon Musk de 2016 poderia ter sido um deepfake em resposta às alegações de que o CEO havia exagerado na segurança do piloto automático da Tesla, levando a um acidente. Um político indiano afirmou que clipes de áudio dele reconhecendo a corrupção em seu partido político foram adulterados (o áudio de pelo menos um de seus clipes foi verificado como real por um meio de comunicação). E dois réus nos tumultos de 6 de janeiro alegaram que os vídeos em que apareceram eram deepfakes. Ambos foram considerado culpado.
Entretanto, as empresas exploram a confusão pública para vender produtos fundamentalmente duvidosos, rotulando-os de “IA”. Isto pode correr muito mal quando tais ferramentas são utilizadas para classificar pessoas e tomar decisões consequentes sobre elas. Contratando a empresa Retorio, por exemplo, reivindicações que a sua IA prevê a adequação dos candidatos ao trabalho com base em entrevistas em vídeo, mas um estudo descobriu que o sistema pode ser enganado simplesmente pela presença de óculos ou pela substituição de um fundo simples por uma estante, mostrando que se baseia em correlações superficiais.
Existem também dezenas de aplicações nos cuidados de saúde, educação, finanças, justiça criminal e seguros, onde a IA está actualmente a ser utilizada para negar às pessoas importantes oportunidades de vida. Nos Países Baixos, a autoridade fiscal neerlandesa utilizou um algoritmo de IA para identificar pessoas que cometeram fraudes no bem-estar infantil. Isto acusado injustamente milhares de pais, muitas vezes exigindo o reembolso de dezenas de milhares de euros. Na sequência, o primeiro-ministro e todo o seu gabinete renunciaram.
Em 2025, esperamos que os riscos da IA surjam não da ação da IA por si só, mas devido ao que as pessoas fazem com ela. Isso inclui casos em que parece funciona bem e é excessivamente confiável (advogados que usam ChatGPT); quando funciona bem e é mal utilizado (deepfakes não consensuais e o dividendo do mentiroso); e quando simplesmente não é adequado ao propósito (negando às pessoas os seus direitos). Mitigar esses riscos é uma tarefa gigantesca para empresas, governos e sociedade. Já será bastante difícil sem se distrair com preocupações de ficção científica.