IA

Samsung: dados confidenciais no ChatGPT

Funcionários usavam o serviço para corrigir código e fazer apresentações.

10 de abril de 2023 - 10:34
Empresas têm se preocupado com o uso do ChatGPT (Foto: Depositphotos)

Empresas têm se preocupado com o uso do ChatGPT (Foto: Depositphotos)

A Samsung optou por desenvolver sua própria inteligência artificial para uso interno, após funcionários da empresa usarem o ChatGPT para trabalhar com informações secretas da empresa.

Segundo o site Tech Radar, em menos de um mês, foram registrados três incidentes relacionados a colaboradores vazando informações sensíveis por meio da inteligência artificial da OpenAI, cujo uso era autorizado apenas para identificar e corrigir erros em suas linhas de código.

Em um dos casos, um funcionário teria pedido que o ChatGPT otimizasse sequências de testes para identificar falhas em chips de celular, um produto cujo desenvolvimento é confidencial.

Em outro, alguém solicitou que a tecnologia transformasse suas anotações de uma reunião em uma apresentação de slides.

Vale destacar que não houve um vazamento das informações, no sentido de tornar dados confidenciais disponíveis para qualquer um.

O problema é outro: qualquer dado inserido no ChatGPT acaba nos servidores da OpenAI, um momento a partir do qual o usuário já não tem controle sobre ele.

Para muitas grandes empresas, isso já é risco demais. Recentemente, a Walmart também deu um puxão de orelha em seus funcionários em um comunicado interno referente ao compartilhamento de informações sensíveis da companhia com inteligências artificiais como o ChatGPT.

A varejista havia bloqueado anteriormente o uso da solução ao identificar atividades de colaboradores que considerou passíveis de riscos para a empresa, conforme reporta o Business Insider.

A empresa deixou estritamente proibido abrir informações sensíveis, confidenciais ou de propriedade, incluindo dados financeiros, informações pessoais de clientes e dos próprios colaboradores, bem como estratégias da companhia.

Além disso, a Walmart também incentivou seus funcionários a não copiar e colar linhas de código em ferramentas como o ChatGPT, para que a tecnologia crie novas fórmulas.

Outro ponto reforçado foi a importância de checar a procedência das informações fornecidas pelos chatbots, que nem sempre seriam confiáveis.

A Microsoft também não ficou atrás e disse aos colaboradores que podem usar a tecnologia no trabalho, desde que não comprometam informações sensíveis, assim como a JP Morgan, que também optou por restringir temporariamente o ChatGPT na companhia.