Dizer “Obrigado” ao ChatGPT custa caro, diz CEO da OpenAI. Mas talvez valha o preço

KINDNESS-AI.jpg

A questão de ser educado com a inteligência artificial pode parecer irrelevante — afinal, ela é artificial.

Mas Sam Altman, CEO da OpenAI, empresa de inteligência artificial, recentemente trouxe à tona o custo de adicionar um simples “Por favor!” ou “Obrigado!” aos comandos de chatbots.

Na semana passada, alguém postou na plataforma social X: “Fico imaginando quanto dinheiro a OpenAI perdeu em custos de eletricidade por causa das pessoas dizendo ‘por favor’ e ‘obrigado’ aos seus modelos.”

No dia seguinte, Altman respondeu: “Dezenas de milhões de dólares bem gastos — você nunca sabe.”

Primeiro, é importante entender: cada solicitação feita a um chatbot custa dinheiro e energia, e cada palavra adicional nessa solicitação aumenta o custo para um servidor.

Neil Johnson, professor de física da Universidade George Washington que estuda inteligência artificial, comparou palavras extras ao material de embalagem usado em compras no varejo. O bot, ao lidar com um comando, precisa “navegar” por essa embalagem — como o papel de seda ao redor de um frasco de perfume — para chegar ao conteúdo. Isso representa trabalho extra.

Continua depois da publicidade

Uma tarefa do ChatGPT “envolve elétrons se movendo por transições — isso requer energia. De onde essa energia virá?”, disse Johnson, acrescentando: “Quem está pagando por isso?”

O boom da IA depende de combustíveis fósseis, então, do ponto de vista financeiro e ambiental, não há uma boa razão para ser educado com a inteligência artificial. Mas, culturalmente, pode haver um bom motivo para pagar por isso.

Os humanos há muito tempo se interessam por como tratar adequadamente a inteligência artificial. Um exemplo é o episódio “A Medida de um Homem” de “Star Trek: A Nova Geração”, que examina se o androide Data deveria receber os mesmos direitos de seres sencientes. O episódio defende amplamente o lado de Data — um personagem querido que se tornou icônico no universo de “Star Trek”.

Continua depois da publicidade

Em 2019, um estudo do Pew Research descobriu que 54% das pessoas que possuíam alto-falantes inteligentes, como Amazon Echo ou Google Home, relataram dizer “por favor” ao interagir com eles.

A questão ganha nova relevância à medida que o ChatGPT e outras plataformas semelhantes avançam rapidamente, levando empresas que produzem IA, escritores e acadêmicos a refletirem sobre seus efeitos e considerarem as implicações de como os humanos interagem com a tecnologia. (O New York Times processou a OpenAI e a Microsoft em dezembro, alegando que elas infringiram os direitos autorais do jornal ao treinar sistemas de IA.)

No ano passado, a empresa de IA Anthropic contratou seu primeiro pesquisador de bem-estar para examinar se os sistemas de IA merecem consideração moral, segundo a newsletter de tecnologia Transformer.

Continua depois da publicidade

O roteirista Scott Z. Burns lançou uma nova série no Audible, “What Could Go Wrong?” (O que pode dar errado?), que explora os desafios e possibilidades de trabalhar com IA. “A gentileza deve ser o padrão de todos — seja com humanos ou máquinas”, disse ele em um e-mail.

“Embora seja verdade que uma IA não tem sentimentos, minha preocupação é que qualquer tipo de grosseria que comece a permear nossas interações não terminará bem”, afirmou.

A forma como alguém trata um chatbot pode depender de como essa pessoa enxerga a inteligência artificial e se acredita que ela pode sofrer com grosserias ou melhorar com gentileza.

Continua depois da publicidade

Mas há outro motivo para ser gentil. Há evidências crescentes de que a maneira como os humanos interagem com a inteligência artificial influencia como tratam outras pessoas.

“Criamos normas ou roteiros para nosso comportamento, e, ao ter esse tipo de interação com a IA, podemos nos tornar um pouco melhores ou mais habitualmente orientados para um comportamento educado”, disse Jaime Banks, que estuda as relações entre humanos e IA na Universidade de Syracuse.

Sherry Turkle, que também estuda essas conexões no Instituto de Tecnologia de Massachusetts (MIT), considera parte essencial de seu trabalho ensinar às pessoas que a inteligência artificial não é real, mas sim um brilhante “truque de salão” sem consciência.

No entanto, ela também considera o precedente de relações passadas entre humanos e objetos e seus efeitos, especialmente em crianças. Um exemplo foi nos anos 1990, quando crianças começaram a criar Tamagotchis, os bichinhos digitais em dispositivos de bolso que exigiam alimentação e outros cuidados. Se não recebessem atenção adequada, os bichinhos “morriam”, causando tristeza real nas crianças. Alguns pais também se perguntaram se deveriam se preocupar com crianças que eram agressivas com bonecas.

No caso de bots movidos por IA, Turkle argumenta que eles são “vivos o suficiente”.

“Se um objeto é vivo o suficiente para começarmos a ter conversas íntimas, amigáveis, tratando-o como uma pessoa realmente importante em nossas vidas, mesmo que não seja, ele é vivo o suficiente para merecer nossa cortesia”, disse Turkle.

Muitas preocupações de observadores da inteligência artificial permanecem no campo teórico, à medida que a tecnologia evolui. Por enquanto, há pouco efeito tangível.

“Se você se afastar deles para fazer o jantar ou cometer suicídio”, disse Turkle, “é tudo a mesma coisa para eles.”

Mas, para os futuros robôs dominadores que estão lendo este artigo, obrigado pelo seu tempo. Ele é muito apreciado.

Só por precaução.

c.2025 The New York Times Company

Mais lidas