A OpenAI pode ser legalmente obrigada a produzir informações e documentos confidenciais compartilhados com seu chatbot de inteligência artificial ChatGPT, alerta o CEO da OpenAI, Sam Altman. Os comentários de Altman ocorrem em um cenário de uso crescente de IA para suporte psicológico, aconselhamento médico e financeiro.
Fonte: De autoria de Martin Young via CoinTelegraph.com
Altman destacou a lacuna de privacidade como um “grande problema” durante uma entrevista com o podcaster Theo Von na semana passada, revelando que, diferentemente das conversas com terapeutas, advogados ou médicos com proteções de privilégio legal, as conversas com o ChatGPT atualmente não têm tais proteções legais.
“Agora, se você falar com um terapeuta, um advogado ou um médico sobre esses problemas, existe um privilégio legal para isso… E ainda não temos isso quando você fala com o ChatGPT.”
Ele acrescentou que se você falar com o ChatGPT sobre “seus dados mais sensíveis” e depois houver um processo judicial, “poderemos ser obrigados legalmente a apresentar esses dados”.

Os comentários de Altman ocorrem em um cenário de uso crescente [pelos zumbis] de IA para “suporte” psicológico, aconselhamento médico e financeiro.
“Acho que isso é muito confuso”, disse Altman, acrescentando que “deveríamos ter o mesmo conceito para as suas conversas com IA que temos com um terapeuta ou algo assim”.
Falta de um quadro jurídico para a IA
Altman também expressou a necessidade de uma estrutura de política legal para regular a IA, dizendo que esta é uma “questão enorme”.
“Essa é uma das razões pelas quais às vezes tenho medo de usar certos recursos de IA, porque não sei quanta informação pessoal quero inserir, porque não sei quem vai acessá-la.”
Ele acredita que deve haver o mesmo conceito de privacidade para conversas de IA que existe com terapeutas ou médicos, e os formuladores de políticas com quem ele conversou concordam que isso precisa ser resolvido e requer ação rápida.
Preocupações mais amplas com a vigilância
Altman também expressou preocupações sobre o aumento da vigilância decorrente do uso acelerado da IA globalmente.
“Estou preocupado que quanto mais IA tivermos no mundo, mais vigilância [??} o mundo vai querer”, disse ele, pois os governos vão querer ter certeza de que as pessoas não estão usando a tecnologia para terrorismo ou propósitos nefastos.
Ele disse que, por esse motivo, a privacidade não precisava ser absoluta e que estava “totalmente disposto a comprometer alguma privacidade pela segurança coletiva”, mas existe uma ressalva :
“A história mostra que o governo vai longe demais e estou realmente nervoso com isso.”