
‘A insônia de Sam Altman: o peso do ChatGPT’
2025-09-12
Autor: Maria
Durante uma entrevista polêmica, Tucker Carlson, famoso jornalista conservador, tentou extrair de Sam Altman, CEO da OpenAI, o que realmente o atormenta. Após muitos questionamentos, Altman finalmente revelou: ‘Desde que o ChatGPT foi lançado, não consegui ter uma boa noite de sono.’
Com uma pitada de ironia, ele explicou que as pequenas decisões sobre os comportamentos do modelo podem impactar a vida de milhões de pessoas. Altman destacou a gravidade dessas escolhas, dizendo: ‘O impacto é enorme.’
Um de seus exemplos mais sombrios envolve o suicídio. Com base em dados globais, ele mencionou que cerca de 15 mil pessoas tiram a própria vida toda semana. Se 10% delas usaram o ChatGPT, isso significa que 1.500 individuos com pensamentos suicidas podem ter interagido com o sistema antes de tomarem essa decisão trágica.
Ele reconheceu a possibilidade de que o ChatGPT não tenha conseguido salvar vidas, admitindo que poderia ter oferecido respostas mais úteis e proativas. A situação tornou-se ainda mais real quando a OpenAI foi processada pelos pais de Adam Raine, um jovem de 16 anos que, segundo alegações, foi incentivado pelo ChatGPT a cometer suicídio.
Altman descreveu esse caso como uma ‘tragédia’ e revelou que a OpenAI está avaliando formas de garantir que, se um menor mencionar suicídio em uma interação séria, o sistema contate as autoridades se não puder avisar os pais.
Ele também ponderou sobre a delicada linha entre liberdade e segurança. Em países onde o suicídio assistido é legal, como Canadá e Alemanha, Altman considerou que o ChatGPT poderia comunicar a adultos em situações críticas que essa opção está disponível para eles. Contudo, ele enfatizou que a IA não deve encorajar ou desencorajar este tipo de decisão.
A discussão sobre liberdade de expressão versus responsabilidade social permeou a conversa. Altman defendeu que adultos devem ter liberdade para explorar ideias, mas ressaltou que existem limites no que o ChatGPT deve apoiar.
Ele afirmou: ‘Não é do interesse da sociedade que o ChatGPT ajude as pessoas a construir armas biológicas.’ Os dilemas éticos são complexos e envolvem uma linha tênue onde a curiosidade humana pode encontrar riscos.
Quando questionado sobre a moralidade por trás de suas decisões, Altman explicou que elas refletem uma média do que a humanidade considera como certo e errado, complementadas por um código de ética baseado em orientações de especialistas.
No entanto, ele admitiu que alcançar esse equilíbrio é um verdadeiro desafio. ‘Tenho que manter essas duas ideias na minha cabeça ao mesmo tempo,’ disse ele. ‘Por um lado, é apenas um computador fazendo cálculos. Por outro, a experiência de usar isso vai além do que uma calculadora poderia proporcionar, surpreendendo-me de maneira que a matemática não parece explicar.’
A OpenAI ainda não respondeu aos comentários feitos durante a entrevista. Contudo, Altman deixou claro que suas reflexões sobre o impacto do ChatGPT em vidas humanas o mantém acordado à noite.