Uso excessivo de IA em emails corrói confiança em gestores, aponta estudo

Pesquisa da USC Marshall com 1.100 profissionais revela que emails gerados por IA fazem gestores parecerem desinteressados e reduzem percepção de sinceridade de 83% para 40%

Pesquisadores da USC Marshall School of Business e da University of Florida publicaram estudo revelando que funcionários perdem confiança em gestores que usam inteligência artificial extensivamente para redigir emails corporativos. A pesquisa, publicada no International Journal of Business Communication, analisou como subordinados percebem mensagens escritas com auxílio de ferramentas de IA.

Os números indicam uma queda significativa na percepção de sinceridade. Enquanto 83% dos funcionários consideram gestores sinceros quando emails têm baixo uso de IA, esse percentual despenca para 40-52% quando a inteligência artificial escreve a maior parte da mensagem. A aprovação de profissionalismo também sofre impacto, caindo de 95% para 69-73% conforme aumenta o uso de IA.

O estudo identifica um fenômeno chamado “perception gap”, no qual funcionários julgam o uso de IA por gestores de forma mais severa do que avaliam seu próprio uso. Essa assimetria perceptiva representa um desafio para líderes que buscam equilibrar produtividade e autenticidade na comunicação corporativa.

Pesquisa revela queda de credibilidade em gestores que delegam emails à IA

O estudo conduzido por Peter Cardon, Warren Bennis Chair in Teaching Excellence da USC Marshall, e Anthony Coman, professor da University of Florida, apresentou a 1.100 profissionais emails de gestores com diferentes níveis de assistência por inteligência artificial. Os participantes avaliaram tanto a qualidade das mensagens quanto a percepção sobre os remetentes.

A pesquisa revelou que emails substancialmente compostos por ferramentas como ChatGPT e Claude foram julgados como inautênticos pelos participantes. Essa percepção de inautenticidade danificou diretamente a credibilidade dos gestores, afetando como subordinados avaliam a competência e o cuidado de seus líderes.

Peter Cardon explicou o fenômeno em declaração oficial: “Se funcionários pensam que o gestor usou IA para pequenas edições, quase não há penalidade. Mas assim que pensam que o gestor escreveu a maior parte com IA, acham que ele é desinteressado”. O pesquisador acrescentou que funcionários passam a sentir que o gestor não merece o cargo por falta de competência.

Sinceridade percebida cai de 83% para 40-52% com alto uso de IA

Os dados quantitativos do estudo evidenciam o impacto do uso intensivo de inteligência artificial na comunicação corporativa. A percepção de sinceridade apresentou a maior variação entre os indicadores analisados, com queda de mais de 30 pontos percentuais.

Além da sinceridade, o profissionalismo percebido também registrou declínio expressivo. Mensagens com baixo uso de IA receberam aprovação de 95% nesse quesito, enquanto aquelas com alto uso obtiveram apenas 69-73% de aprovação. Os dados indicam que o polimento adicional proporcionado pela IA não compensa a perda de autenticidade.

A queda nos indicadores de confiança afeta múltiplas dimensões da relação entre gestores e subordinados. Os participantes que identificaram alto uso de IA passaram a questionar não apenas a sinceridade das mensagens, mas também a competência geral do gestor.

Como o estudo foi conduzido

A metodologia envolveu a apresentação de mensagens de parabéns de gestores aos 1.100 participantes do estudo. Cada mensagem continha marcações indicando quais trechos haviam sido escritos ou editados com auxílio de inteligência artificial, em três níveis distintos de assistência.

Os pesquisadores dividiram os níveis em baixo, médio e alto uso de IA. O nível baixo representava pequenas correções gramaticais, enquanto o nível alto indicava que a ferramenta escreveu a maior parte do conteúdo. Os participantes responderam sobre qualidade da mensagem e percepção do remetente.

Essa abordagem permitiu isolar o efeito da percepção de uso de IA sobre a credibilidade do gestor. Os resultados demonstraram correlação direta entre o nível de assistência identificado e a queda na confiança percebida pelos subordinados.

Funcionários julgam uso de IA por gestores mais severamente que próprio uso

O estudo identificou uma assimetria significativa na forma como profissionais avaliam o uso de inteligência artificial. Anthony Coman, coautor da pesquisa, observou: “Quando as pessoas avaliam seu próprio uso de IA, tendem a classificar de forma semelhante entre níveis baixo, médio e alto de assistência. No entanto, ao avaliar o uso de outros, a magnitude se torna importante”.

Essa diferença perceptiva cria um desafio particular para gestores. Enquanto funcionários tendem a ver seu próprio uso de IA como uma ferramenta de apoio legítima, aplicam critérios mais rigorosos ao avaliar a mesma prática em seus superiores hierárquicos.

O fenômeno sugere que a transparência sobre o uso de IA pode ser particularmente arriscada para líderes. A mera suspeita de que um email foi gerado por inteligência artificial pode desencadear julgamentos negativos sobre competência e comprometimento do gestor.

Mensagens com carga emocional sofrem maior penalidade

O impacto negativo do uso de IA varia conforme o tipo de comunicação. Mensagens que exigem trabalho emocional, como elogios, congratulações, feedback pessoal e comunicações motivacionais, sofrem penalidades mais severas quando percebidas como geradas por inteligência artificial.

Os pesquisadores identificaram que funcionários toleram melhor o uso de IA em comunicações informativas e rotineiras. Lembretes de reuniões, anúncios factuais e outras mensagens operacionais podem utilizar assistência de IA com menor risco de danos à percepção do gestor.

Essa distinção oferece uma orientação prática para líderes. Comunicações que exigem demonstração de empatia e conexão pessoal devem limitar o uso de inteligência artificial a pequenas edições gramaticais, preservando a autenticidade da mensagem.

Baixa confiança afeta desempenho organizacional

Peter Cardon contextualizou os achados com pesquisas anteriores sobre confiança corporativa: “Há centenas e centenas de estudos que mostram que quando há baixa confiança, funcionários não desempenham tão bem no nível da equipe”. O pesquisador destacou que medidas de confiança e transparência correlacionam-se com desempenho em receitas e ROI.

O uso indiscriminado de ferramentas como ChatGPT e Claude para comunicações corporativas pode, portanto, gerar consequências que ultrapassam a relação individual entre gestor e subordinado. A erosão sistemática da confiança afeta métricas de desempenho em níveis organizacionais mais amplos.

Os dados do estudo indicam que líderes precisam calibrar cuidadosamente quando e como utilizam inteligência artificial na comunicação com suas equipes. A eficiência obtida com automação pode ser anulada pelos custos intangíveis da perda de credibilidade e confiança.

Foto de Escrito por Diego Ivo

Escrito por Diego Ivo

Diego é CEO da Conversion, agência Líder em SEO e especializada em Search. Possui mais de uma década de experiência no mercado digital e é um dos principais experts no Brasil em SEO.

guest

0 Comentários
Inline Feedbacks
View all comments
Foto de Escrito por Diego Ivo

Escrito por Diego Ivo

Diego é CEO da Conversion, agência Líder em SEO e especializada em Search. Possui mais de uma década de experiência no mercado digital e é um dos principais experts no Brasil em SEO.

Compartilhe este conteúdo

Curso de SEO

Gratuito e com certificado. Mais de 13.620 pessoas já participaram.
Preencha o formulário e assista agora!

Estamos processando sua inscrição. Aguarde...

Seus dados de acesso à sua Jornada no curso serão enviados no e-mail cadastrado.
Receba o melhor conteúdo de SEO & Marketing em seu e-mail.
Assine nossa newsletter e fique informado sobre tudo o que acontece no mercado
Receba o melhor conteúdo de SEO & Marketing em seu e-mail.
Assine nossa newsletter e fique informado sobre tudo o que acontece no mercado
Agende uma reunião e conte seus objetivos
Nossos consultores irão mostrar como levar sua estratégia digital ao próximo nível.