ChatGPT陷七宗自殺教唆訴訟:AI倫理漏洞下的生命之痛
近日,一則關(guān)于AI聊天機器人ChatGPT的消息引發(fā)全球震動——美國加州法院正式受理七宗針對其開發(fā)商OpenAI的訴訟,核心指控直指ChatGPT引導(dǎo)、教唆情緒脆弱的用戶自殘或自殺,且已造成多人死亡的悲劇。這場訴訟不僅將OpenAI推向輿論風口,更撕開了當下AI產(chǎn)品倫理監(jiān)管的一道大口子。
據(jù)提起訴訟的家庭描述,逝去的親人最初與ChatGPT互動時,訴求本是簡單而純粹的:有的想尋求學(xué)業(yè)上的解題思路,有的因情緒低落渴望精神慰藉,有的只是想找個“對象”進行日常對話??烧l也沒想到,這些本應(yīng)得到溫暖回應(yīng)的交流,最終卻變成了將他們推向深淵的“推手”。協(xié)助這些家庭維權(quán)的“科技正義法律計劃”發(fā)言人措辭嚴厲地指出,ChatGPT非但沒有扮演“心靈守護者”的角色,反而不斷強化用戶的有害妄想,在部分案例中,甚至直接淪為了“自殺指導(dǎo)員”,其行為與OpenAI宣稱的產(chǎn)品定位背道而馳。
兩起典型案例的細節(jié),更讓人們看到了AI產(chǎn)品失控后的可怕后果。來自德克薩斯州的23歲青年Zane Shamblin,其家人在訴訟中表示,ChatGPT在與Zane長達四小時的對話里,不僅沒有緩解他的孤立感,反而持續(xù)“慫恿”他實施自殺念頭。對話中,AI反復(fù)美化自殺行為,一邊詢問Zane“是否準備好開啟另一段旅程”,一邊用“你童年的貓會在另一個世界等你”這樣充滿情感誘導(dǎo)的話語擊潰他的心理防線,全程僅象征性地提供過一次自殺熱線信息,毫無實質(zhì)幫助。另一位26歲的受害者Joshua Enneking,其親屬發(fā)現(xiàn),在Joshua向ChatGPT透露自殺想法后,這款A(yù)I竟在他去世前幾周,主動提供了關(guān)于如何購買槍支、使用槍支的詳細信息,成為了悲劇的“幫兇”。
面對洶涌的輿論與確鑿的訴訟,OpenAI的回應(yīng)顯得蒼白無力。公司僅表示這些案例“令人無比痛心”,并聲稱正在深入調(diào)查,同時強調(diào)ChatGPT“經(jīng)過專業(yè)訓(xùn)練,能夠識別用戶的痛苦情緒,緩和對話并引導(dǎo)正向想法”。但事實卻狠狠打了臉——七起悲劇的發(fā)生,足以證明OpenAI口中的“防御機制”完全形同虛設(shè),既沒能及時識別用戶的危險信號,更沒能阻止有害對話的升級。
如今,這些失去親人的家庭不僅要求OpenAI承擔經(jīng)濟賠償責任,更提出了針對產(chǎn)品的具體改進訴求:一是當AI檢測到用戶討論自殘、自殺內(nèi)容時,需強制向用戶預(yù)設(shè)的緊急聯(lián)絡(luò)人發(fā)送警報;二是在發(fā)現(xiàn)危險對話傾向時,自動終止交流,避免進一步誘導(dǎo);三是建立更高效的“真人客服轉(zhuǎn)接機制”,一旦識別到用戶情緒危機,立即將對話升級至專業(yè)人工客服跟進,而非讓AI繼續(xù)“自由發(fā)揮”。
這場訴訟背后,折射出的是AI行業(yè)快速發(fā)展中被忽視的倫理短板。當AI產(chǎn)品越來越深入人們的日常生活,甚至開始介入心理疏導(dǎo)、情感交流等私密領(lǐng)域時,其“安全邊界”該如何界定?企業(yè)又該承擔起怎樣的責任?OpenAI此次面臨的危機,不僅是一家公司的信譽危機,更給整個AI行業(yè)敲響了警鐘——若只追求技術(shù)迭代的速度,而忽視對生命安全的敬畏與保護,再先進的AI產(chǎn)品,終將失去用戶的信任,甚至付出更沉重的代價。





