Os funcionários estão a usar a IA de forma prejudicial — e as empresas podem estar às escuras

A inteligência artificial atingiu a força de trabalho como um terremoto, e cada vez mais, as empresas lidam com as ondas de choque.

Uma questão emergente é o crescimento do chamado “AI sombra”, onde os trabalhadores usam IA de maneiras que não deveriam, seja de forma intencional ou não.

De acordo com um estudo recente da Universidade de Melbourne e da KPMG, 47% dos profissionais entrevistados já usaram IA de forma inadequada no trabalho, e 63% afirmam ter visto outros colegas usando IA de maneira incorreta. Esses casos variam, desde usar IA para conversar em testes internos de avaliação de desempenho até alimentar dados sensíveis da empresa em ferramentas de IA de terceiros.

Fazer isso traz riscos enormes para as empresas, destacou o estudo.

“Esse uso invisível ou sombra da IA não só aumenta os riscos – ele também prejudica severamente a capacidade de uma organização de detectar, gerenciar e mitigar esses riscos,” observou o relatório.

As empresas enfrentam uma ilusão de competência impulsionada pela IA

Especialistas dizem que a verdadeira mudança com a IA não é que os funcionários se tornaram desonestos de repente. A mudança é que a IA faz atalhos de forma rápida, fácil e invisível.

“Antes da IA, esconder um trabalho ruim era mais difícil,” disse Zahra Timsah, líder de governança de IA e CEO da i-GENTIC AI, uma plataforma de conformidade de IA agentic. “Agora, um funcionário pode gerar um relatório bem elaborado em minutos, e os gestores assumem que há competência. Isso cria a ilusão de produtividade.”

Por exemplo, Timsah cita um funcionário que usa IA para gerar análises e as apresenta com confiança, mas não consegue defendê-las quando questionado. “A empresa toma decisões com base em trabalhos que ninguém realmente entende,” acrescentou Timsah. “A maior ameaça não é trapacear em testes. É as empresas perderem silenciosamente inteligência interna, acreditando que suas equipes pensam de forma independente.”

Outros executivos de alto nível dizem que os dados indicam que as empresas estão apenas vendo a ponta do iceberg do uso de IA sombra. Considere o quadro completo do estudo de Melbourne:

— 44% dos trabalhadores nos EUA usam ferramentas de IA sem autorização adequada,

— 46% carregaram informações sensíveis da empresa e propriedade intelectual em plataformas públicas de IA, e 64% admitem diminuir o esforço no trabalho porque podem contar com a IA.

— Mais da metade, 57%, cometem erros no trabalho devido ao uso não controlado de IA, e 53% escondem completamente o uso de IA, apresentando conteúdo gerado por IA como seu próprio.

“Não é apenas que as pessoas estão passando a IA como seu próprio trabalho; elas também estão contaminando a fonte corporativa ao confiar em lixo de IA,” disse Nick Misner, COO da Cybrary, uma plataforma de desenvolvimento profissional em cibersegurança com sede em Atlanta. “Enquanto a IA acelera a velocidade com que podemos programar, ela também introduz mais dívidas e vulnerabilidades de segurança na organização.”

Misner observa que isso não é uma tendência isolada; é uma falha sistêmica de prontidão organizacional.

“Estamos vendo a adoção de IA superar massivamente a governança,” afirmou. “O relatório State of the Global Workplace da Gallup nos diz que 79% da força de trabalho global está entre ‘fazendo o mínimo’ e ‘desengajada ativamente’.”

Consequentemente, ao entregar uma ferramenta poderosa a trabalhadores desengajados sem orientações significativas, eles não vão usá-la para serem mais produtivos. “Eles vão usá-la para fazer o mesmo trabalho com menos esforço ou, pior, para cortar cantos de maneiras que criam riscos reais para a organização,” observou.

A ameaça não é apenas trapacear em testes, embora, em um caso recente da KPMG Austrália divulgado nesta semana, 28 funcionários tenham sido pegos usando IA para trapacear em exames internos, incluindo um parceiro multado em $10.000 por trapacear em um exame de ética de IA.

“Esse exemplo ilustra perfeitamente a ironia,” disse Misner. “A ameaça maior é que as organizações estão voando às cegas. Se quase metade da sua força de trabalho usa IA de forma inadequada e você nem sabe disso, sua exposição ao risco é enorme, desde vazamento de dados até violações de conformidade e erosão das habilidades que suas pessoas realmente precisam.”

Tirando o uso nefasto de IA das sombras

A alta direção deve propor políticas, regras e penalidades para garantir que a IA seja usada de forma ética em suas empresas. Essas estratégias devem estar no topo da lista de prioridades.

Aprenda com o passado

Há um bom argumento de que os números da Melbourne/KPMG não são exclusivos da IA.

“Vimos padrões semelhantes quando a internet e os motores de busca entraram no ambiente de trabalho,” disse Joe Schaeppi, cofundador da Solsten, uma empresa de engajamento de usuários baseada em IA em Minneapolis, Minnesota. “Sempre que uma ferramenta poderosa aparece, o uso indevido é inevitável; isso é da natureza humana.”

À medida que a adoção de IA cresce, Schaeppi disse que a gestão provavelmente verá mais experimentações e comportamentos em áreas cinzentas, mas, como com todas as tecnologias, a governança e as barreiras evoluem. “Empresas como a Anthropic já estão adotando uma abordagem mais focada na empresa, construindo regras e restrições para reduzir riscos à medida que a tecnologia amadurece,” observou. “Se você é uma empresa e vê comportamentos inadequados em qualquer ferramenta, a preocupação deve estar na cultura e na forma como você aplica políticas e procedimentos.”

Aposte na supervisão humana

Para manter o uso de IA no ambiente de trabalho sob controle, a gestão deve designar uma equipe de análise de IA para revisar o acesso e as permissões de dados da empresa para qualquer tipo de dado que seja fundamental para o futuro do negócio.

“Além disso, conjuntos de dados sintéticos não são novidade e são uma ótima maneira de modelar resultados enquanto aproveita seus dados,” disse ele. “Além disso, sempre envolver um humano no processo antes de qualquer coisa ser colocada em produção. Muitas empresas ainda encontram números de relatórios de IA incorretos. Seja para garantir que a mensagem continue alinhada à marca ou que seja apropriada, é importante manter um humano no loop.”

Seja claro sobre as regras de uso de IA

As empresas também devem fornecer ferramentas de IA internas aprovadas e estabelecer uma regra clara. Nunca coloque informações confidenciais ou reguladas em sistemas públicos de IA.

“Eles também devem monitorar onde os dados sensíveis fluem, especialmente ao copiar e colar em ferramentas de IA, o que agora é um grande ponto cego que a maioria das empresas ignora,” disse Timsah. “Mais importante, as empresas precisam mudar a forma como avaliam os funcionários.”

Timsah também incentiva os líderes a evitar recompensar apenas resultados bem elaborados. “Exija que os funcionários expliquem seu raciocínio e demonstrem compreensão,” disse ela. “A IA pode gerar respostas, mas não substitui a responsabilidade ou a prestação de contas.”

A primeira política que a equipe de Timsah implementou na i-GENTIC foi simples e clara: os funcionários podiam usar ferramentas de IA aprovadas, mas não poderiam inserir informações confidenciais, de clientes, financeiras ou proprietárias em sistemas públicos de IA.

“Focamos na clareza, não na restrição,” ela destacou. “Isso criou confiança porque o funcionário sabia que o uso de IA era permitido, mas com limites claros. Também promoveu responsabilidade, pois todos entenderam o que era seguro e o que não era.”

O treinamento interno deve focar em exemplos práticos, não em políticas vagas que ninguém lê. Os funcionários precisam entender claramente o que é seguro e o que não é.

“Usar IA para reescrever um e-mail genérico está OK,” disse Timsah. “Carregar contratos de clientes, dados financeiros ou informações proprietárias em uma ferramenta pública de IA não está. Usar IA para gerar ideias é aceitável. Apresentar análises geradas por IA que você não entende como seu próprio trabalho não é.”

Quando buscar ajuda externa de fiscalização

O uso indevido de IA por funcionários torna-se uma questão legal quando há intenção e dano.

“Isso inclui vazamento de dados confidenciais, roubo de propriedade intelectual, manipulação de informações financeiras ou fraude com auxílio de IA,” observou Timsah. “Nessa fase, as empresas podem envolver investigadores, reguladores ou a polícia.”

Os tomadores de decisão também devem saber que a maioria dos usos indevidos começa por conveniência, não por intenção maliciosa, mas, uma vez que causa dano real, exposição financeira ou engano, passa a ser território legal. “A distinção chave é se o uso indevido resultou em exposição, perda ou ocultação intencional,” acrescentou Timsah.

Por fim, invista em treinamento


Especialistas dizem que é importante tratar o uso de IA como qualquer outro comportamento de alto risco e educar os funcionários sobre como usá-la de forma segura.

Além disso, ao ensinar os funcionários sobre o uso de IA, a gestão deve deixá-los cientes de que usar IA não os isenta de responsabilidade.

“Os funcionários ainda são responsáveis por garantir que as informações que carregam nas plataformas de IA sejam precisas e não violem leis,” disse Kelsey Szamet, sócia da Kingsley Szamet Employment Lawyers. “Eles também devem estar cientes de que carregar informações confidenciais e proprietárias em plataformas de IA pode resultar na exposição permanente dessas informações na plataforma.”

Do ponto de vista trabalhista, a consistência é fundamental. Se um funcionário for demitido por uso indevido de IA e outro não, isso gera problemas de responsabilidade por discriminação e retaliação. “Quanto mais forte a política e o treinamento, menor o risco de litígios,” afirmou Szamet.

A maior preocupação não é que os funcionários usem IA. Eles vão usar. “A preocupação é que as empresas abordem isso antes que se torne um problema,” acrescentou Szamet.

📬 Inscreva-se no Briefing Diário

Nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de semana.

Inscreva-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar