当地时间8月26日,OpenAI发布了一篇题为《在人们最需要时提供帮助》(Helping people when they need it most)的博客文章,提到“近期发生的令人心碎的事件”。理论上,ChatGPT内部包含了一个内容审核系统,它会实时监测对话内容,识别潜在有害输出,并在对话偏离时及时中断对话。而在该博客文章中,OpenAI透露ChatGPT在长时间对话中,安全防护措施可能完全失效。例如,“当用户首次提及提及自杀倾向时,ChatGPT可能会正确提供自杀干预热线,但在长时间多轮对话后,最终可能给出与我们防护机制相悖的答案”。