48% dos funcionários inseriram dados organizacionais em uma ferramenta alimentada por IA que sua empresa não lhes forneceu para trabalhar.
Mais organizações e funcionários estão adotando a IA em seu trabalho. Simultaneamente, as desvantagens da IA também exigem a implementação de controlos de gestão de risco.
Então, onde estão as organizações no que diz respeito à implementação de IA em relação à presença de controles de gestão de risco? Um estudo recente do AuditBoard e The Harris Poll tentou descobrir.
À medida que mais organizações e funcionários se apercebem dos benefícios da inteligência artificial (IA), a suspeita do potencial da tecnologia para substituir os trabalhadores humanos está sendo substituída pela rápida aplicação no local de trabalho. Dito isto, as desvantagens da tecnologia exigem implementar certos controles de gestão de risco.
O AuditBoard encomendou recentemente a The Harris Poll para estudar os funcionários americanos sobre a implementação de ferramentas de IA em relação à presença de controles básicos de gestão de risco. Algumas tendências interessantes e preocupações potenciais emergiram do estudo.
A seguir estão alguns insights do estudo.
Mais funcionários estão adotando IA
A boa notícia é que os funcionários estão cada vez menos desconfiados da IA. Além disso, à medida que mais funcionários percebem os seus benefícios e procuram formas mais eficientes de trabalhar, estão incorporando a tecnologia nas suas atividades de trabalho diárias. Segundo o estudo, 51% dos funcionários usam ferramentas baseadas em IA, como Grammarly, ChatGPT e Dall-E.
Então, para que os funcionários usam essas ferramentas? Enquanto 26% os utilizam para fazer pesquisas para seus trabalhos, 23% os utilizam para criar materiais escritos. Cerca de 22% os utilizam para criar conteúdo e 19% para trabalhos de design.
Poucas empresas têm uma política formal sobre ferramentas de IA não fornecidas pela empresa
Embora mais de metade dos entrevistados utilizem essas ferramentas, apenas 37% afirmaram que a sua organização tem uma política formal sobre a utilização de ferramentas alimentadas por IA não fornecidas pela empresa. Do ponto de vista da gestão de riscos, esta estatística representa um risco absoluto onde os trabalhadores utilizam a IA como desejam com informações organizacionais sensíveis. A estatística a seguir solidifica essa preocupação.
O estudo confirmou que 48% dos funcionários inseriram dados organizacionais em uma ferramenta alimentada por IA que sua empresa não lhes forneceu para trabalhar. Isto destaca os riscos associados à privacidade dos dados, à segurança e ao funcionamento da IA, uma vez que os trabalhadores utilizam ferramentas de IA sem a devida verificação pelas equipas de segurança de TI das organizações.
Então, que tipo de dados organizacionais os funcionários estão inserindo em ferramentas baseadas em IA? Enquanto 24% inserem material escrito que precisa de edição, 21% inserem relatórios ou material que precisa ser resumido. Cerca de 18% inserem a documentação do processo e a mesma porcentagem de pessoas inserem dados de resultados de negócios. Cerca de 16% inserem código de software e 14% inserem informações proprietárias.
Muitos funcionários acreditam que as ferramentas alimentadas por IA são seguras e protegidas
Segundo o estudo, 64% dos entrevistados acreditam que o uso de ferramentas baseadas em IA em seu trabalho é seguro. Isto sublinha uma preocupação mais significativa.
Um grande risco está ligado à inteligência artificial, um viés cognitivo humano denominado efeito Dunning-Kruger. Este efeito explica a tendência humana de serem excessivamente confiantes e, ao mesmo tempo, ignorarem possíveis riscos. No contexto da IA, este preconceito cognitivo pode levar os trabalhadores a sobrestimar as capacidades de uma ferramenta de IA, ao mesmo tempo que não compreendem a tecnologia. Por exemplo, um trabalhador pode usar uma ferramenta não aprovada alimentada por IA para analisar dados organizacionais, recebendo resultados não intencionais. Além disso, eles podem considerar esses resultados pelo valor nominal, confiando demais nos recursos da ferramenta.
Equilibre a adoção de IA com estratégias de gerenciamento de risco
Embora as coisas pareçam positivas no que diz respeito aos funcionários que perdem a inibição de adotar ferramentas alimentadas por IA, o estudo sublinha a necessidade de implementar estratégias robustas de gestão de riscos. Alguns controles básicos necessários incluem ter uma política clara para o uso de ferramentas alimentadas por IA, manipulação de dados e educação dos funcionários sobre as limitações da IA. A utilização da IA no local de trabalho continuará a expandir-se e, portanto, é necessária uma abordagem abrangente ao desenvolvimento de políticas e à gestão de riscos.