Depois da Samsung, Apple proíbe ChatGPT para seus funcionários; saiba motivo

ChatCPT
ChatGPT proibido pela Apple (Foto: Freepik)

Depois da Samsung, Apple proíbe ChatGPT para seus funcionários; saiba motivo

A Apple se tornou a mais recente empresa a proibir o uso interno do ChatGPT e produtos similares, ironicamente, assim como o chatbot OpenAI chega ao iOS na forma de um aplicativo móvel. A notícia da mudança foi revelada pelo The Wall Street Journal, que revisou um documento interno da Apple informando os funcionários sobre a proibição. De acordo com o papel, as preocupações da Apple estão alinhadas com outras corporações que também proibiram o ChatGPT de ser usado internamente, ou seja, que a inteligência artificial poderia vazar informações internas confidenciais compartilhadas com ela.

A Apple também barrou a ferramenta de codificação automatizada do GitHub, Copilot. Rumores circulam sobre os planos de IA da Apple há algum tempo, com a empresa possivelmente trabalhando em seu próprio LLM (Large Language Model) para rivalizar com o ChatGPT e o Google Bard.

Outras empresas têm o mesmo medo

A empresa de Cupertino não está sozinha em sua decisão de proibir o uso do chatbot apoiado pela Microsoft: ele se junta a uma lista cada vez maior de empresas como Amazon e vários bancos, incluindo JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank e outros.

A Samsung, rival da Apple, também proibiu o uso interno do ChatGPT – duas vezes – devido a contratempos. A Samsung suspendeu a proibição do uso do ChatGPT por funcionários em março, mas em menos de um mês foi revelado pela mídia coreana que a equipe da Samsung pediu ajuda ao ChatGPT para resolver bugs do código-fonte, consertar o software usado para coletar dados de medição e produção e transformar notas de reuniões em minutos.A Samsung reimpôs sua proibição do ChatGPT no início deste mês para evitar que incidentes semelhantes aconteçam novamente.

Vazamento de informações confidenciais

O problema com os bots ChatGPT, Google Bard e LLM é que os dados alimentados neles são frequentemente usados para treinar ainda mais os bots, que a agência de espionagem do Reino Unido, GCHQ, alertou que pode facilmente levar à regurgitação de informações comerciais confidenciais se outras pessoas fizerem perguntas semelhantes. .

As consultas também são visíveis para os provedores de bot, como OpenAI e Google, que podem revisar o conteúdo fornecido a seus modelos de linguagem, arriscando ainda mais a exposição de segredos corporativos bem guardados.