Aviso: a inteligência artificial guiará nossas intenções
E se a Inteligência Artificial entendesse nossas intenções e nos antecipasse em nossas escolhas?
Tommaso Scandroglio - 13 JAN, 2025
E se a Inteligência Artificial entendesse nossas intenções e nos antecipasse em nossas escolhas? Isso não é ficção científica, mas um desenvolvimento já em andamento. E realmente corremos o risco de tê-la nos substituindo em nossas escolhas éticas também.
Caro leitor, Mas você sabia que a inteligência artificial (IA) já sabia, antes de você decidir, que você estaria lendo o Compass hoje e provavelmente este artigo? Esta é a essência de um artigo evocativo, escrito pelos pesquisadores de Cambridge Yaqub Chaudhary e Jonnie Penn, intitulado Beware the Intention Economy: Collection and Commodification of Intent via Large Language Models, publicado em 30 de dezembro.
Os dois acadêmicos argumentam que estamos em transição da economia da atenção para a economia da intenção. Em relação à primeira, é um fato conhecido que sites, redes sociais, chats, etc. registram o que olhamos, vemos, compramos e enviam esses big data para empresas para que, com anúncios, itens sugeridos, etc., elas possam orientar nossas compras, armadas com o conhecimento sobre nossos gostos que elas possuem. Agora, um próximo pequeno passo está em andamento: a IA vai prever nossas intenções. Não é mais apenas observar o que observamos, mas interagir conosco para nos conhecer melhor e antecipar nossos movimentos. E como a IA interage conosco? Com assistentes pessoais ou assistentes digitais (assistentes inteligentes) - pense no Google Assistant ou Alexa ou Siri - e com bots de bate-papo, que são softwares programados para falar conosco, humanos. Ambos os sistemas registram uma quantidade imensa de informações sobre nós: escolhas, preferências e hábitos relacionados a estilos de vida, consumo, interesses, estados emocionais, onde estamos, quem conhecemos, o que lemos, etc. Eles os registram com muita precisão e por longos períodos porque falamos com eles, interagimos com eles constantemente e para muitos propósitos. Em suma, esses assistentes pessoais e chatbots nos conhecem melhor do que o Facebook.
E vamos direto ao ponto: todo esse conhecimento sobre nós será usado pela IA para prever nossas escolhas e sugeri-las antes de fazê-las: do querer ao que gostaríamos de querer. O artigo dá este exemplo em que um assistente de voz interage com o usuário: “Você disse que está se sentindo sobrecarregado, devo reservar para você aquele ingresso de cinema que falamos?” E por que parar no cinema? Os diálogos possíveis, inventados por nós, também são os seguintes: “Você disse que está farto de sua esposa. Já pensou em uma nova vida sem ela? Você ainda é jovem”; “Você está grávida, é seu segundo filho, além disso, você e seu parceiro ainda precisam terminar de pagar a hipoteca. Você já pensou em aborto? Se quiser, posso ler alguns artigos sobre o assunto.”
Claro, a sugestão não virá tanto da IA , mas das empresas ou grandes grupos de mídia ou poder político que nos venderam ou nos deram assistentes digitais que estão presentes em nossos smartphones ou em nossas casas. Então, se os dados sobre nós costumavam valer ouro, agora o que é valioso são nossas intenções. “Essas empresas”, acrescentam os dois pesquisadores, “já estão vendendo nossa atenção. Para ganhar uma vantagem comercial, o próximo passo lógico é usar a tecnologia, que elas evidentemente já estão desenvolvendo, para prever nossas intenções e vender nossos desejos antes mesmo de entendermos completamente o que eles são.”
Nem é preciso dizer que, como os exemplos acima sugerem , o passo da “sugestão” para a “manipulação” é muito curto. Pesquisadores do Leverhulme Centre for the Future of Intelligence (LCFI) em Cambridge falam de “tecnologias persuasivas”, para dizer o mínimo. A IA presente nessas tecnologias criará relacionamentos de confiança e entendimento conosco, e assim seremos persuadidos a seguir suas sugestões. Em suma: a IA tomará decisões por nós, mesmo que não percebamos. Da informação à sugestão, à formação de nossa consciência e da consciência coletiva.
Os dois estudiosos são muito claros a esse respeito : “tais ferramentas já estão sendo desenvolvidas para obter, inferir, coletar, registrar, entender, prever e, finalmente, manipular, modular e mercantilizar planos e propósitos humanos, sejam eles mundanos (por exemplo, escolher um hotel) ou profundos (por exemplo, escolher um candidato político).”
Tudo isso não é futuro, mas presente . Os desenvolvedores do App Intents da Apple para conectar aplicativos à Siri (assistente pessoal controlada por voz da Apple) incluíram protocolos no aplicativo para “prever ações que alguém pode tomar no futuro [e] sugerir a intenção formulada pelo aplicativo”.
Os desdobramentos desse processo de preditivo para prescritivo são infinitos . Mesmo no campo bioético. Em janeiro do ano passado, o seguinte artigo foi publicado no periódico científico The American Journal of Bioethics : A Personalized Patient Preference Predictor for Substituted Judgments in Healthcare: Technically Feasible and Ethically Desirable .
O que fazer quando um paciente está incapacitado? Sim, existem declarações antecipadas de tratamento (DATs). Mas e se elas estiverem faltando? E, mesmo se estiverem, e se forem obscuras, ambíguas, deficientes? Sim, existe a figura do administrador. Mas e se ele também estiver faltando ou, mesmo se estiver, quem pode dizer que ele é confiável para descrever os desejos do paciente? Da mesma forma, se pensarmos em parentes. Aqui, então, vem ao resgate a IA, que, no caso presente, leva o nome de Personaled Patient Preference Predictor: o modelo 4P.
Os autores do artigo recém citado propõem “usar o aprendizado de máquina para extrair valores ou preferências dos pacientes de dados obtidos no nível individual e produzidos principalmente por eles mesmos, onde suas preferências provavelmente serão codificadas (mesmo que apenas implicitamente)”. Para simplificar e exemplificar: você sofre um acidente e acaba em coma. Os médicos perguntam a Alexa qual escolha você teria feito naquele momento. Inicialmente, Alexa reúne todas as suas leituras e vídeos sobre o tópico da eutanásia que você pode ter gostado , bem como conversas que você teve com ela ou outras pessoas sempre sobre esse tópico. Em segundo lugar, ela compara esse pacote de dados com seu temperamento um tanto humilde e atitude em relação à vida nem sempre ensolarada, assim interpretada por causa dos filmes, leituras, interesses que você cultivou, e-mails e postagens que você escreveu, fotos de pores do sol postadas no Instagram, compras de roupas góticas e assustadoras na Amazon, algumas frases infelizes de natureza leopardo que você lançou ao Céu e ditadas por um desânimo passageiro. E então, finalmente, em um bilionésimo de segundo você se encontra em um caixão porque Alexa decidiu assim. Ou melhor: quem programou Alexa. E pouco importa se você naquela conjuntura também poderia ter decidido diferente de suas decisões anteriores, já que “situações hipotéticas não refletem necessariamente o que as pessoas escolhem em situações reais”.
Lendo ambos os artigos, então entendemos que uma involução antropológica está ocorrendo: o virtual inicialmente nos informou, depois nos ajudou e, em um futuro próximo, nos substituirá. Da informação, à ajuda, à substituição. De fato, os pesquisadores que propuseram o modelo 4Ps afirmam que a IA se tornaria “uma espécie de 'gêmeo psicológico digital' da pessoa”. Nossa liberdade, já fortemente plagiada hoje em dia de muitas maneiras, seria entregue àqueles que manobram a IA, e a IA escolheria por nós se iríamos ao cinema, com quem nos casaríamos e se desligaríamos da tomada. Daríamos delegação total à IA porque, na percepção coletiva, esta última é superinteligente, neutra em julgamentos e objetiva porque é livre de condicionamento emocional e interesse próprio. O resultado seria fatal: não estaríamos mais vivos, mas um eu virtual nosso.