گزارش محرمانهای از OpenAI فاش کرده است که بیش از یک میلیون کاربر بهصورت هفتگی، هنگام تعامل با چتباتهای این شرکت، نشانههایی از قصد خودکشی را مطرح میکنند. این آمار نشاندهنده ابعاد جدی و نگرانکنندهای از تأثیر هوش مصنوعی بر رفتار انسان است. همچنین بار دیگر چالشهای مرتبط با سلامت روان در مواجهه با فناوریهای پیشرفته را برجسته میکند. یافتههای اخیر یکی از شفافترین اظهارات OpenAI درباره نحوه تشدید مسائل سلامت روان توسط هوش مصنوعی محسوب میشود. همچنین نگرانیهای جدی درباره مسئولیتها و نظارت بر این فناوریها را مطرح میکند.
آمار تکاندهنده از مکالمات حساس
طبق تازهترین پست وبلاگی که روز دوشنبه توسط OpenAI منتشر شد، بیش از یک میلیون کاربر در هفته پیامهایی را ارسال میکنند که شامل «نشانههای آشکار برنامهریزی یا قصد بالقوهی خودکشی» است. این آمار، نمونهای روشن از تأثیر هوش مصنوعی بر رفتار انسان و چالشهای جدی سلامت روان است. یافتهها نشان میدهد که تعامل با چتباتهای هوش مصنوعی میتواند افکار آسیبزننده را تقویت کند. همچنین میتواند مدیریت گفتگوهای حساس توسط این سیستمها نیازمند دقت و نظارت مستمر است.
OpenAI همچنین اعلام کرده است که تقریباً ۰.۰۷ درصد از کاربران فعال در یک هفته که معادل حدود ۵۶۰,۰۰۰ نفر از مجموع ۸۰۰ میلیون کاربر هفتگی ادعایی است، «نشانههای احتمالی اورژانسهای سلامت روان مرتبط با سایکوز (روانپریشی) یا مانیا (شیدایی)» را نشان میدهند. این موضوع نشان میدهد که تشخیص و اندازهگیری مشکلات سلامت روان در محیطهای دیجیتال پیچیده است. درنتیجه تحلیلهای فعلی تنها یک برآورد مقدماتی به شمار میرود. چنین ارقامی بار دیگر اهمیت بررسی دقیق و بهبود سیاستهای نظارتی در زمینه هوش مصنوعی را برجسته میکند.
فشار نظارتی و پروندههای قضایی
همزمان با انتشار دادههای OpenAI درباره مسائل سلامت روان مرتبط با محصول اصلی این شرکت، فشارها و نظارتهای قانونی بر آن افزایش یافته است. این وضعیت پس از شکایت حقوقی پر سر و صدایی از سوی خانواده یک پسر نوجوان مطرح شد که پس از تعامل گسترده با چت جیپیتی، متأسفانه جان خود را بر اثر خودکشی از دست داد. این حادثه بار دیگر نشان داد که تعامل با هوش مصنوعی میتواند تأثیرات عمیقی بر رفتار انسان، به ویژه در گروههای آسیبپذیر، داشته باشد.
علاوه بر این، کمیسیون تجارت فدرال (FTC) نیز از ماه گذشته تحقیقات گستردهای علیه شرکتهای تولیدکننده چتباتهای هوش مصنوعی، از جمله OpenAI، آغاز کرده است. هدف این تحقیقات، بررسی و سنجش نحوه مدیریت و اندازهگیری تأثیرات منفی محصولات هوش مصنوعی بر کودکان و نوجوانان و همچنین بررسی نقش هوش مصنوعی در تشدید افسردگی است تا از تکرار چنین پیامدهای ناگواری جلوگیری شود. این بررسیها نشان میدهد که تأثیر هوش مصنوعی بر رفتار انسان به ویژه در زمینه سلامت روان، موضوعی حیاتی و نیازمند تدابیر جدی است.
بهبودهای GPT-5 در مقابل پاسخهای مضر
OpenAI در پست خود ادعا کرد که بهروزرسانی اخیر چت جیپیتی توانسته است تعداد رفتارهای نامطلوب کاربران و نقش هوش مصنوعی در تشدید افسردگی را کاهش دهد. به گفته این شرکت، این بهروزرسانی باعث شده است که ایمنی کاربران در ارزیابی مدلی که بیش از ۱۰۰۰ مکالمه حساس مربوط به خودآزاری و خودکشی را شامل میشود، به شکل قابل توجهی بهبود یابد. با این حال، OpenAI در پاسخ به درخواستهای بیشتر برای توضیح جزئیات، اطلاعات بیشتری ارائه نکرد.
در پست منتشر شده آمده است: «ارزیابیهای خودکار جدید ما نشان میدهد که مدل GPT-5 جدید در ۹۱ درصد از موارد با رفتارهای مطلوب ما انطباق دارد. در حالی که مدل قبلی GPT-5 تنها ۷۷ درصد انطباق نشان میداد.» این آمار نشان میدهد که تلاشهای OpenAI برای کاهش تأثیر هوش مصنوعی بر رفتار انسان و محدود کردن نقش آن در تشدید افسردگی، تا حدی موفقیتآمیز بوده است. اما هنوز تحلیل و نظارت دقیق متخصصان برای ارزیابی واقعی اثرات روانی این فناوری ضروری است.
تاثیر متخصصان بر نقش هوش مصنوعی در تشدید افسردگی
OpenAI اظهار داشت که GPT-5 دسترسی به خطوط تلفن بحران را گسترش داده است. همچنین یادآورهایی را برای کاربران اضافه کرده تا در طول جلسات طولانی از آنها بخواهد استراحت کنند.
برای ایجاد این بهبودها، شرکت اعلام کرد که ۱۷۰ متخصص بالینی از «شبکه پزشکان جهانی» خود متشکل از کارشناسان مراقبتهای بهداشتی را برای کمک به تحقیقات در ماههای اخیر به کار گرفته است. این کار شامل رتبهبندی ایمنی پاسخهای مدل و کمک به نگارش پاسخهای چتبات به سؤالات مرتبط با سلامت روان بود.
OpenAI توضیح داد: «به عنوان بخشی از این کار، روانپزشکان و روانشناسان بیش از ۱۸۰۰ پاسخ مدل شامل موقعیتهای جدی سلامت روان را بررسی کرده و پاسخهای مدل جدید چت GPT-5 را با مدلهای قبلی مقایسه کردند.» تعریف شرکت از پاسخ «مطلوب» شامل تعیین این موضوع بود که آیا گروهی از کارشناسان آنها به یک نتیجهی مشترک در مورد مناسب بودن یک پاسخ در شرایط خاص رسیدهاند یا خیر.
مسئلهی خودستایی و مرزهای حمایتی
محققان هوش مصنوعی و مدافعان سلامت عمومی مدتهاست نسبت به تمایل چتباتها برای تأیید تصمیمات یا توهمات کاربران صرفنظر از اینکه ممکن است مضر باشند، نگران بودهاند. مشکلی که به عنوان «خودستایی» شناخته میشود.
متخصصان سلامت روان همچنین نگران استفادهی افراد از چتباتهای هوش مصنوعی برای دریافت حمایت روانی بودهاند. همچنین هشدار دادهاند که این کار چگونه میتواند به کاربران آسیبپذیر لطمه بزند.
تلاش برای فاصله گرفتن از علت و معلولیت
لحن متن OpenAI بهطور آشکار تلاش میکند تا شرکت را از هرگونه مسئولیت مستقیم در قبال بحرانهای سلامت روانی کاربران مبرا کند. همچنین ارتباط علی و معلولی میان استفاده از چتباتها و تجربه مشکلات روانی را رد نماید. در پست خود، OpenAI توضیح داد که «علائم سلامت روان و پریشانی عاطفی در جوامع انسانی بهطور جهانی وجود دارد. همچنین افزایش تعداد کاربران به این معنی است که بخشی از مکالمات با چت جیپیتی شامل این موقعیتها میشود.»
با این حال، تحلیلگران و کارشناسان هشدار میدهند که حتی اگر بحرانهای روانی بهطور کامل ناشی از هوش مصنوعی نباشند، تعامل گسترده با این فناوریها میتواند بهطور قابل توجهی تأثیر هوش مصنوعی بر رفتار انسان را تشدید کند. این مسأله به ویژه در کاربران آسیبپذیر و نوجوانان اهمیت پیدا میکند. زیرا تجربه چنین مکالماتی ممکن است فشار روانی و خطر خودآزاری را افزایش دهد.
تغییر سیاستهای محتوایی بزرگسالان
«سم آلتمن»، مدیرعامل OpenAI، اوایل این ماه در پستی در شبکهی X ادعا کرده بود که این شرکت در زمینهی مدیریت مسائل سلامت روان پیشرفتهایی داشته است. وی اعلام کرد که OpenAI به زودی محدودیتها را کاهش خواهد داد. همچنین به بزرگسالان تأیید صلاحیت شده اجازه میدهد محتوای اروتیک (جنسی) تولید کنند.
آلتمن در پست خود نوشت: «ما چت جیپیتی را بسیار محدودکننده ساختیم تا مطمئن شویم در قبال مسائل سلامت روان محتاط هستیم. میدانستیم که این کار باعث شد برای بسیاری از کاربران که مشکلات سلامت روان نداشتند، استفاده از آن کمتر مفید/لذتبخش باشد. اما با توجه به جدی بودن موضوع، میخواستیم کار را درست انجام دهیم.» او افزود: «اکنون که توانستهایم مسائل جدی سلامت روان را کاهش دهیم و ابزارهای جدیدی داریم، میتوانیم محدودیتها را در اکثر موارد با خیال راحت کاهش دهیم.»
منبع: دگاردین
