.png?w=730)
Empresa teme vazamento de dados (Foto: Depositphotos)
O Google é mais uma empresa a alertar seus funcionários sobre o uso de chatbots de inteligência artificial depois do boom do ChatGPT da OpenAI.
As diretrizes incluem a proibição do compartilhamento de materiais confidenciais, reforçando os riscos de vazamentos de dados e a reprodução das informações que a inteligência artificial aprender durante seu treinamento.
A decisão chama a atenção porque o Google tem o seu próprio chatbot de IA, o Bard, e ele também está incluído na recomendação.
Segundo a Reuters reporta, a companhia também afirma que o Bard pode fazer sugestões inapropriadas para programadores que usarem a inteligência artificial como base para seus códigos.
O temor do Google é que os desenvolvedores usem sem revisar um código do Bard que contenha bugs, ou seja, mais complexo do que o necessário, causando mais trabalho no futuro com revisões.
HISTÓRICO DE PROIBIÇÕES
Desde a popularização do ChatGPT, a Samsung optou por desenvolver sua própria inteligência artificial para uso interno após seus funcionários usarem a tecnologia para trabalhar com informações confidenciais.
Conforme reportou o site Tech Radar, foram registrados três incidentes do tipo na empresa em menos de um mês.
Em todos eles, colaboradores vazaram informações sensíveis por meio da inteligência artificial da OpenAI, cujo uso era autorizado apenas para identificar e corrigir erros em suas linhas de código.
A Walmart também deu um puxão de orelha em seus funcionários em um comunicado interno referente ao compartilhamento de informações sensíveis da companhia com inteligências artificiais como o ChatGPT.
A varejista havia bloqueado anteriormente o uso da solução ao identificar atividades de colaboradores que considerou passíveis de riscos para a empresa, conforme reporta o Business Insider.
A companhia deixou estritamente proibido abrir informações sensíveis, confidenciais ou de propriedade, incluindo dados financeiros, informações pessoais de clientes e dos próprios colaboradores, bem como estratégias corporativas.
Além disso, a Walmart também incentivou seus funcionários a não copiar e colar linhas de código em ferramentas como o ChatGPT para que a tecnologia crie novas fórmulas.
Outro ponto reforçado foi a importância de checar a procedência das informações fornecidas pelos chatbots, que nem sempre seriam confiáveis.
A Microsoft também não ficou atrás e disse aos colaboradores que podem usar a tecnologia no trabalho, desde que não comprometam informações sensíveis, assim como a JP Morgan, que também optou por restringir temporariamente o ChatGPT na companhia.
Mais recentemente, a Apple também se juntou ao clube de empresas que proibiram entre seus funcionários o uso do ChatGPT.
Assim como outras empresas, a big tech tomou a decisão em busca de proteger sua propriedade intelectual.