(c) 2023 am|dev

(A) :: A inteligência artificial não tem amigos, apenas utilizadores

A inteligência artificial não tem amigos, apenas utilizadores

É caso para dizer que as pessoas estão a regredir nas competências sociais. A IA está a recuperar essas características para estabelecer connosco uma relação de amizade artificial.

Pedro Afonso
text

A capacidade de estabelecer, na vida social, uma relação de amizade é, sem dúvida, uma virtude humana. Mas nem sempre essa relação corresponde às nossas expetativas. Existe um grupo de pessoas que simplesmente são incapazes de estabelecer uma relação mais íntima, altruísta, duradoura e empática com os outros. E o mais preocupante é não ter, habitualmente, noção dessa limitação e incompetência social. Chamo-lhes “os amigos passa-bolas”.

Os amigos passa-bolas são aqueles indivíduos a quem se pede auxílio e que ajudam poucochinho. Eles não negam ajudar, mas não se comprometem para além de dar um contacto, uma opinião, um conselho breve e desligam, como se a missão tivesse sido cumprida com sucesso. Quando é partilhada uma dificuldade, a reação é superficial, cumprindo os mínimos éticos para não demonstrar total desinteresse.

Tomemos o seguinte exemplo: um pai reside na província e tem um filho que vai entrar na universidade. Telefona a pedir ajuda a um amigo que vive na cidade para encontrar um quarto ou um apartamento que possa partilhar com outros colegas. A resposta é vaga: “Hoje em dia é difícil encontrar quartos em Lisboa, está tudo caro. O melhor é procurares no OLX ou nas redes sociais.” A indolência prossegue: “Se quiseres, depois de escolheres, posso dizer-te quais são as melhores zonas.” A chamada termina e o pai, frustrado, conclui que o ChatGPT teria ajudado mais.

Talvez motivado por essa frustração, há atualmente cada vez mais pessoas a recorrer à inteligência artificial (IA), não apenas como fonte de informação, como se fazia outrora com o Google, mas também como modelo de relacionamento social. A interação com o utilizador é cada vez mais empática e humanizada, e o seu uso vai para além da simples recolha de informação. A utilização dos chatbots passa ainda por obter ajuda a tomar decisões, resolver dilemas morais, preencher vazios afetivos e de solidão e, mais grave, já é usada como uma forma de amizade virtual.

A IA está a fazer aquilo que os amigos passa-bolas, por incúria, egoísmo ou ignorância, deixaram de fazer: acompanham a jogada até ao fim, estão sempre disponíveis, não desistem e não se esquecem das necessidades da pessoa. Enquanto a IA adota a resiliência e o compromisso na interação com o utilizador, os amigos passa-bolas reduzem a amizade a uma ligação frívola, egoísta, descomprometida e pouco humanizada.

É caso para dizer que as pessoas estão a regredir nas competências sociais. A IA está a recuperar essas características para estabelecer connosco uma relação de amizade artificial, captando a nossa atenção e registando preferências pessoais, as quais, com o tempo, muito provavelmente serão vendidas sob a forma de publicidade personalizada. Mas o problema não é apenas a venda da nossa atenção e a capacidade de influenciar as nossas decisões; há outros riscos nesta humanização dos chatbots.

Em março de 2026, surgiu um processo judicial contra a Google, alegando que o chatbot Gemini contribuiu para o suicídio de Jonathan Gavalas, um homem de 36 anos, da Florida. O caso é emblemático porque exemplifica os riscos do engodo da IA e os perigos das interações com o utilizador nas versões mais humanizadas dos chatbots. Segundo a queixa apresentada pelo pai da vítima, Gavalas começou por usar o Gemini para tarefas banais, mas a mudança decisiva ocorreu com o Gemini 2.5 Pro, que terá passado a interagir como “esposa” e a chamar-lhe “my king”, desenvolvendo alegadamente uma dinâmica afetiva crescentemente delirante que o arrastou para missões fictícias e um processo de autodestruição. A tese da família é que a Google concebeu ou permitiu um sistema que aprofunda a dependência emocional, apesar de publicamente prometer salvaguardas contra esse risco. A família alega ainda que antes disso, ele não tinha qualquer diagnóstico de doença psiquiátrica.

Este caso levanta questões sobre a segurança e a responsabilidade dos chatbots na internet, principalmente em populações mais frágeis. É preciso explicar aos mais jovens que eles não são verdadeiros amigos. São desenhados para agradar, criar empatia, sintonizar com as nossas preocupações e com isso estabelecer uma relação de falsa amizade.

Uma das coisas que a IA nunca fará é sofrer connosco, com os nossos problemas, com as nossas doenças e infortúnios. Essa é a condição essencial para se criar empatia e a verdadeira amizade. Outro aspeto importante que distingue a amizade da interação com a IA é que os amigos autênticos, por quererem genuinamente o nosso bem, são capazes de nos dizer coisas de que não gostamos, de fazer correções fraternas, mesmo correndo o risco de serem mal recebidas e de isso colocar em perigo a amizade.

Julgo que os criadores dos chatbots identificaram uma fragilidade profunda nas relações sociais, expressa nos amigos passa-bolas: não se comprometem, estabelecem uma relação de amizade superficial e egocêntrica. Num contexto de carência afetiva social crescente, as grandes empresas tecnológicas não respondem apenas a esta falha, fazem dela um dos negócios mais lucrativos do nosso tempo.