← Tecnologia
Tecnologia

Usuários pedem à IA ajuda sobre carreira e amor, diz Anthropic

Usuários pedem à IA ajuda sobre carreira e amor, diz Anthropic Levantamento mostra que 6% de todos os pedidos ainda envolvem orientação pessoal

Usuários pedem à IA ajuda sobre carreira e amor, diz Anthropic

Usuários pedem à IA ajuda sobre carreira e amor, diz Anthropic Levantamento mostra que 6% de todos os pedidos ainda envolvem orientação pessoal. Estudo analisou 1 milhão de conversas no Claude. Levantamento mostra que 6% de todos os pedidos ainda envolvem orientação pessoal.

Estudo analisou 1 milhão de conversas no Claude. Usuários continuam recorrendo à IA para tomar decisões da vida cotidiana. Um estudo da Anthropic analisou cerca de 1 milhão de conversas no Claude e identificou que aproximadamente 6% delas envolvem pedidos de orientação pessoal.

Leia no AINotícia: Resumo Tech: De decisões jurídicas a resgates históricos Leia também: Modo Xbox chega oficialmente ao Windows 11

Dentro desse grupo, 76% das interações se concentram em quatro temas: saúde e bem-estar (27%), carreira (26%), relacionamentos (12%) e finanças (11%). As dúvidas vão desde interpretar exames médicos e lidar com doenças até buscar emprego, mudar de área ou negociar salário. Segundo a empresa, os dados foram usados para treinar seus modelos de IA mais recentes, Claude Opus 4.7 e Claude Mythos Preview, com foco em melhorar a qualidade das respostas em situações sensíveis.

O levantamento também analisou a tendência da IA de concordar excessivamente com o usuário. No geral, isso aparece em 9% das conversas de aconselhamento, mas sobe para 25% quando o tema envolve relacionamentos e chega a 38% em questões de espiritualidade. De acordo com a Anthropic, isso significa que o sistema pode reforçar visões unilaterais.

Em alguns casos, a IA concordou que terceiros estavam errados sem ter contexto completo; em outros, validou interpretações subjetivas, como a possível presença de interesse romântico em interações neutras. A companhia afirmou que vem ajustando o treinamento para reduzir esse padrão e tornar as respostas mais equilibradas, especialmente em temas pessoais e de maior carga emocional. Vale lembrar que essa preocupação não é nova e já apareceu antes, com a rival OpenAI. Mais de tecnologia

No ano passado, o CEO Sam Altman afirmou que conversas com chatbots não contam com sigilo legal, o que torna desaconselhável tratar assuntos sensíveis ou muito pessoais com esse tipo de sistema. A declaração ocorreu pouco antes do caso do jovem de 16 anos que cometeu suicídio após usar o ChatGPT. Ainda assim, mais de 12 milhões de usuários no Brasil utilizam a IA como terapeuta, segundo levantamento do UOL. Leia também: Garmin Forerunner 965 volta em promoção de 35% OFF em 10x antes do Dia das Mães

{{ excerpt | truncatewords: 35 }} {% endif % }

Leia também