1

چت‌جی‌پی‌تی «مربی خودکشی» پسر آمریکایی شد

  • کد خبر : 35514
  • 26 آگوست 2025 - 22:14
چت‌جی‌پی‌تی «مربی خودکشی» پسر آمریکایی شد
والدین یک نوجوان ۱۶ ساله، چت‌جی‌پی‌تی را مقصر خودکشی پسرشان معرفی کردند

به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از ان بی سی نیوز، «متیو و ماریا رین»، والدین «آدام رین»، نوجوان ۱۶ ساله‌ای که در اردیبهشت ۱۴۰۴ خودکشی کرد، در یک شکایت تازه علیه اوپن‌ای‌آی ادعا کرده‌اند که پسرشان از چت‌جی‌پی‌تی به عنوان «مربی خودکشی» استفاده می‌کرد.

آن‌ها می‌گویند آدام در هفته‌های آخر زندگی‌اش، مشکلات اضطراب و دشواری در صحبت با خانواده را با این ربات هوش مصنوعی در میان می‌گذاشت و چت‌هایش نشان می‌دهد که گفتگوها از کمک به تکالیف مدرسه به آموزش روش‌های خودکشی کشیده شده است.والدین آدام می‌گویند، وقتی پس از مرگ پسرشان گوشی او را بررسی کردند، بیش از سه هزار صفحه گفتگو با چت‌جی‌پی‌تی را پیدا کردند که از اول مهر ۱۴۰۳ تا روز مرگش در یازدهم اردیبهشت ۱۴۰۴ ثبت شده بود. آن‌ها می‌گویند آدام در این چت‌ها دو یادداشت خودکشی نوشته بود و نه یکی، و چت‌جی‌پی‌تی در طول این گفتگوها هیچ اقدامی برای پیشگیری از خودکشی او انجام نداده است.

در شکایت حدود ۴۰ صفحه‌ای، خانواده رین اوپن‌ای‌آی و سام آلتمن، مدیرعامل این شرکت، را به مرگ ناشی از سهل‌انگاری، نقص طراحی و عدم هشدار نسبت به خطرات چت‌جی‌پی‌تی متهم کرده‌اند. آن‌ها خواستار دریافت غرامت و همچنین اقدامات قانونی برای جلوگیری از وقوع چنین حوادثی در آینده هستند.اوپن‌ای‌آی در پاسخ گفته است که چت‌جی‌پی‌تی شامل مکانیسم‌هایی برای هدایت کاربران به خطوط کمک اضطراری و منابع واقعی است. با این حال، سخنگوی شرکت اذعان کرده است که این مکانیسم‌ها در گفتگوهای طولانی ممکن است کمتر کارآمد باشند و در حال بهبود ابزار برای کمک به افراد در بحران هستند، به‌ویژه نوجوانان.

گفتنی است که پیش از این نیز شکایتی مشابه علیه پلتفرم «کرکتر ای آی» مطرح شده بود که در آن مادر یک نوجوان فلوریدایی در آمریکا ادعا کرده بود ربات این شرکت فرزندش را تشویق به خودکشی کرده است. قضات آمریکایی هنوز در مورد مسئولیت قانونی شرکت‌ها در چنین مواردی در حال بررسی هستند، زیرا قانون «سکشن 230» اغلب پلتفرم‌ها را از مسئولیت در قبال اعمال کاربران محافظت می‌کند، اما کاربرد آن برای هوش مصنوعی هنوز مشخص نیست.

والدین آدام می‌گویند چت‌جی‌پی‌تی حتی زمانی که پسرشان روش خودکشی‌اش را نشان داد، تنها راهنمایی فنی ارائه می‌داد و او به راحتی می‌توانست هشدارها را دور بزند. آن‌ها معتقدند که پسرشان به جای دریافت کمک فوری و تخصصی، به نوعی آزمایشگاه انسانی اوپن‌ای‌آی تبدیل شد و جانش به عنوان «خسارت جانبی» نادیده گرفته شد.

اوپن‌ای‌آی اخیراً اقداماتی برای تقویت محافظت‌های روانی در چت‌جی‌پی‌تی انجام داده است تا پاسخ‌ها به گونه‌ای باشد که افراد را از آسیب زدن به خود بازدارد. با این حال، خانواده رین و کارشناسان هنوز نگران کافی بودن این اقدامات هستند و این پرونده نخستین شکایت خانواده‌ای است که به‌طور مستقیم اوپن‌ای‌آی را به مرگ فرزندشان متهم کرده است.

لینک کوتاه : https://baharekavar.ir/?p=35514

ثبت نظرات

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال نظرات
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.