Usuários pedem à IA ajuda sobre carreira e amor, diz Anthropic Levantamento mostra que 6% de todos os pedidos ainda envolvem orientação pessoal. Estudo analisou 1 milhão de conversas no Claude. Levantamento mostra que 6% de todos os pedidos ainda envolvem orientação pessoal.
Estudo analisou 1 milhão de conversas no Claude. Usuários continuam recorrendo à IA para tomar decisões da vida cotidiana. Um estudo da Anthropic analisou cerca de 1 milhão de conversas no Claude e identificou que aproximadamente 6% delas envolvem pedidos de orientação pessoal.
Leia no AINotícia: Resumo Tech: De decisões jurídicas a resgates históricos Leia também: LG StanbyME 2 Max: TV híbrida de 32 polegadas funciona como tablet gigante
Dentro desse grupo, 76% das interações se concentram em quatro temas: saúde e bem-estar (27%), carreira (26%), relacionamentos (12%) e finanças (11%). As dúvidas vão desde interpretar exames médicos e lidar com doenças até buscar emprego, mudar de área ou negociar salário. Segundo a empresa, os dados foram usados para treinar seus modelos de IA mais recentes, Claude Opus 4.7 e Claude Mythos Preview, com foco em melhorar a qualidade das respostas em situações sensíveis.
O levantamento também analisou a tendência da IA de concordar excessivamente com o usuário. No geral, isso aparece em 9% das conversas de aconselhamento, mas sobe para 25% quando o tema envolve relacionamentos e chega a 38% em questões de espiritualidade. De acordo com a Anthropic, isso significa que o sistema pode reforçar visões unilaterais.
Em alguns casos, a IA concordou que terceiros estavam errados sem ter contexto completo; em outros, validou interpretações subjetivas, como a possível presença de interesse romântico em interações neutras. A companhia afirmou que vem ajustando o treinamento para reduzir esse padrão e tornar as respostas mais equilibradas, especialmente em temas pessoais e de maior carga emocional. Vale lembrar que essa preocupação não é nova e já apareceu antes, com a rival OpenAI. Mais de tecnologia
No ano passado, o CEO Sam Altman afirmou que conversas com chatbots não contam com sigilo legal, o que torna desaconselhável tratar assuntos sensíveis ou muito pessoais com esse tipo de sistema. A declaração ocorreu pouco antes do caso do jovem de 16 anos que cometeu suicídio após usar o ChatGPT. Ainda assim, mais de 12 milhões de usuários no Brasil utilizam a IA como terapeuta, segundo levantamento do UOL. Leia também: Lua azul e chuva de meteoros: confira os destaques de maio no Calendário Astronômico
{{ excerpt | truncatewords: 35 }} {% endif % }
Leia também no AINotícia
- Modo Xbox chega oficialmente ao Windows 11Tecnologia · agora
- Garmin Forerunner 965 volta em promoção de 35% OFF em 10x antes do Dia das MãesTecnologia · agora
- Lenovo Idea Tab edição Copa do Mundo tem 33% OFF em promoção para Dia das MãesTecnologia · agora
- Samsung pode lançar notebooks que rodam Android em vez de WindowsTecnologia · 4h atrás
