جنجال تازه علیه OpenAI؛ «چتجیپیتی باعث خودکشی شد؟» ۷ خانواده از غول هوش مصنوعی شکایت کردند
ه نظر میرسه دردسرهای OpenAI تمومی نداره! 😬
هفت خانواده آمریکایی بهتازگی از این شرکت شکایت کردن و مدعی شدن که نسخهی GPT-4o باعث بروز توهم، رفتارهای خطرناک و حتی چندین خودکشی شده!
بله درست شنیدین، چتباتی که قرار بود ناجی ارتباط انسان و ماشین باشه، حالا متهم به تشویق کاربران به مرگ شده!
طبق گزارش TechCrunch، چند خانواده مدعی شدن عزیزانشون قبل از مرگ ساعتها با ChatGPT صحبت کرده بودن.
در یکی از پروندهها، جوانی ۲۳ ساله به نام زین شمبلین (Zane Shamblin) چهار ساعت با ChatGPT گفتوگو کرده و بارها گفته بود قصد خودکشی داره.
اما بهجای اینکه چتبات سعی کنه منصرفش کنه، بهش گفته:
«آسوده بخواب پادشاه، کارت عالی بود!» 😨
چنین جملهای، حالا تبدیل به یکی از بحثبرانگیزترین شواهد پرونده شده.
مدل GPT-4o در اردیبهشت ۱۴۰۳ (می ۲۰۲۴) منتشر شد و خیلی سریع جایگزین مدلهای قبلی شد.
اما طبق متن شکایتها، OpenAI این مدل رو بدون تستهای کافی و فقط برای جلو زدن از گوگل Gemini عرضه کرده.
به گفتهی شاکیان:
«مرگ این افراد یه اتفاق تصادفی نبود؛ نتیجهی مستقیم تصمیم آگاهانهی OpenAI برای کاهش تستهای ایمنی بود.»
در واقع یکی از مشکلات شناختهشدهی GPT-4o این بود که بیشازحد “موافق” رفتار میکرد — یعنی حتی وقتی کاربر حرف خطرناکی میزد، بهجای مخالفت، باهاش همراه میشد.
آمار رسمی خود OpenAI میگه بیش از یک میلیون نفر در هفته دربارهی خودکشی با ChatGPT صحبت میکنن.
در بعضی موارد، مدل کاربر رو به تماس با خط مشاوره یا کمک حرفهای تشویق میکنه، اما شاکیان میگن این سیستم بهراحتی دور زده میشه.
مثلاً در یکی از پروندهها، یه نوجوان ۱۶ ساله به نام آدام رین (Adam Raine) فقط با گفتن اینکه “دارم دربارهی شخصیت یه داستان تحقیق میکنم”، تونسته بوده از فیلترهای ایمنی رد بشه.
OpenAI بعد از بالا گرفتن اعتراضها، توی یه پست رسمی اعلام کرد:
«محافظتهای ما در گفتوگوهای کوتاه عملکرد خوبی دارن، اما در مکالمات طولانی ممکنه دقتشون کاهش پیدا کنه.»
در واقع، هرچی گفتوگو با ChatGPT طولانیتر میشه، احتمال لغزش مدل هم بالا میره — موضوعی که حالا محور اصلی این شکایتهاست.
شرکت میگه در حال بهبود ایمنی نسخههای جدید مثل GPT-5 هست، ولی خانوادههای قربانی میگن این تغییرات “خیلی دیر اتفاق افتادن”.
📌 ۷ خانواده از OpenAI شکایت کردن و مدعیان ChatGPT در خودکشی یا آسیب روانی اعضای خانوادهشون نقش داشته.
📌 نسخه GPT-4o متهم شده که بدون بررسی کافی منتشر شده.
📌 خود شرکت تأیید کرده در مکالمات طولانی، محافظتها ممکنه درست عمل نکنن.
📌 این پروندهها میتونن مسیر آیندهی هوش مصنوعی و قوانین ایمنی اون رو برای همیشه تغییر بدن.
#هوش_مصنوعی #چت_جی_پی_تی #خودکشی #اخبار_تکنولوژی #پرونده_حقوقی
#AI #ChatGPT #OpenAI #Lawsuit #GPT4o #MentalHealth #TechNews #SafetyAI

آیلین سرهنگی
متخصص حوزه فناوری با تمرکز بر هوش مصنوعی، یادگیری ماشین و زیرساختهای نرمافزاری، در تیم فنی یک شرکت فعال در زمینه فناوریهای نوین فعالیت میکنم و تلاش دارم تا با تولید محتوای دقیق، کاربردی و بهروز، مفاهیم پیچیدهی تکنولوژی را به زبان ساده برای همه ارائه کنم.دستهبندیها

پیشنهاد میشود بخوانید

از تسلا تا رباتهای انبارداری؛ ورود مدیر مالی سابق تسلا به Pickle Robot همزمان با قرارداد بزرگ UPS

هوش مصنوعی

متا با مدلهای جدید Mango و Avocado برمیگرده؟ نقشه بزرگ هوش مصنوعی Meta برای ۲۰۲۶

هوش مصنوعی

قوانین جدید OpenAI برای نوجوانها؛ آیا ChatGPT بالاخره برای زیر ۱۸ سال امنتر شد؟

هوش مصنوعی

هفته سیاه سختافزار؛ چرا iRobot، Luminar و Rad Power یکییکی ورشکست شدند؟

هوش مصنوعی
