Embora o ChatGPT da OpenAI tenha se mostrado um assistente atrativo para diversas profissões, algumas empresas decidiram proibir a utilização desse chatbot no ambiente de trabalho devido a preocupações com segurança e privacidade, de acordo com uma notícia recente publicada no ScienceAlert. Muitos temem que as informações carregadas nessa plataforma de Inteligência Artificial (IA) possam ser armazenadas nos servidores da empresa proprietária, sem possibilidade de acessá-las ou excluí-las posteriormente.
É bastante comum que profissionais, especialmente engenheiros de software, utilizem o ChatGPT para escrever, testar ou depurar código, ainda que a ferramenta esteja sujeita a erros. De acordo com uma pesquisa realizada com cerca de 12 mil profissionais, 43% dos empregados usam IA como o ChatGPT no trabalho, muitas vezes sem o conhecimento de seus superiores.
Recentemente, a Samsung Electronics tomou medidas para restringir o uso de IA gerativa depois que um engenheiro, em um pesadelo de toda empresa de tecnologia, copiou e colou código-fonte sensível no ChatGPT. Da mesma forma, empresas como Amazon, Apple e Commonwealth Bank da Austrália proibiram o uso de ChatGPT e estão desenvolvendo suas próprias plataformas de IA como alternativas mais seguras.
Em contrapartida, algumas empresas, como a Coca-Cola e o BuzzFeed, estão explorando o potencial do ChatGPT para gerar conteúdo de maneira econômica. Contudo, à medida que a IA generativa avança, as empresas devem encontrar um equilíbrio entre aproveitar seus benefícios e minimizar os riscos associados ao seu uso.