OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

OpenAI alerta para risco de "apego emocional" à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)
OpenAI alerta para risco de “apego emocional” à voz do ChatGPT (imagem: Vitor Pádua/Tecnoblog)

A OpenAI tem uma interface de voz baseada em inteligência artificial (IA) que é muito parecida com a fala de uma pessoa real. Tão parecida que a organização publicou um alerta inusitado: a tecnologia pode levar usuários do ChatGPT a se apegarem emocionalmente ao chatbot.

Ficção virando realidade?

Tecnologias de IA têm sido associadas a riscos de diversas naturezas, como “roubo” de empregos, violação de direitos autorais na geração de conteúdo e comprometido de dados sensíveis do usuário.

O risco de um humano se apegar emocionalmente a uma tecnologia de IA parecia coisa de ficção, no entanto. Talvez a obra que mais bem retrate esse cenário é o filme Ela (Her), em que Theodore (Joaquin Phoenix) passa a conversar com uma inteligência artificial até se apaixonar por ela.

No caso da OpenAI, o aviso aparece na lista de riscos do modelo de linguagem GPT-4o. Além do possível apego emocional à voz do ChatGPT, a lista inclui pontos como risco de disseminação de desinformação e auxílio no desenvolvimento de armas químicas ou biológicas.

Presumivelmente, o ponto sobre apego emocional foi incluído na lista devido à possibilidade de o usuário sofrer abalos de natureza psicológica, dado que o contato “homem-máquina” não têm as qualidades das relações humanas.

Além disso, a pessoa pode tomar decisões precipitadas ou prejudiciais por conta da confiança desmedida que têm na interação via voz com a IA.

Não por acaso, quando a interface da OpenAI foi revelada, em maio, muitos usuários notaram que a tecnologia pronunciava frases de modo excessivamente “flertador”.

Cena de Her (Imagem: Divulgação/Warner Bros)
Cena do filme Her (imagem: divulgação/Warner Bros)

Possível risco às interações humanas

O alerta sobre a tecnologia de voz é descrito no tópico “Anthropomorphization and emotional reliance” (“Antropomorfização e Confiança Emocional”) na página da OpenAI.

Em linhas gerais, a organização afirma ter encontrado sinais de socialização com a IA durante a fase de testes da tecnologia. Esses sinais parecem ser benignos, mas os efeitos desse comportamento no longo prazo ainda não podem ser mensurados, e isso exige mais investigação sobre o assunto.

Um trecho do documento diz o seguinte:

A socialização no estilo humano com um modelo de IA pode produzir externalidades que impactam as interações entre pessoas. Por exemplo, usuários podem criar relacionamentos sociais com a IA, reduzindo a sua necessidade de interação humana — isso potencialmente beneficia indivíduos solitários, mas pode afetar relacionamentos [humanos] saudáveis.

Como tudo isso é muito novo, vale a máxima advinda das bebidas alcóolicas: aprecie com moderação.

Com informações: Wired

OpenAI alerta para risco de “apego emocional” à voz do ChatGPT

Compartilhe