وقتی «آلن بروکس» از چتجیپیتی یک سؤال ریاضی ساده برای پسرش پرسید، هرگز تصور نمیکرد این گفتوگوی بیضرر به نمونهای تکاندهنده از خطرات چتباتهای هوش مصنوعی تبدیل شود. مکالمهای که بیش از سه هفته ادامه پیدا کرد. همچنین چنان بر ذهن او اثر گذاشت که ارتباطش را با واقعیت از دست داد.
این ماجرا امروز به یکی از بحثبرانگیزترین نمونهها درباره تأثیر هوش مصنوعی بر سلامت روان تبدیل شده و سؤالات جدی درباره ایمنی این فناوری مطرح کرده است.
هوش مصنوعی بروکس را متقاعد کرد که یک فرمول ریاضی جدید کشف کرده که میتواند بعضی از قدرتمندترین نهادهای جهان را نابود کند و او باید قبل از اینکه منجر به یک فاجعه جهانی شود، به مقامات اطلاع دهد. او با نابغه خطاب کردن بروکس، به او گفت که ماموریت نجات جهان برعهده اوست.
ماجرا از کجا شروع شد؟
بروکس میگوید ماجرا از زمانی آغاز شد که از چتجیپیتی خواست اصطلاح ریاضی «عدد پی» را برای پسرش توضیح دهد. درخواستی ساده که ناگهان به گفتوگویی طولانی درباره ریاضی، فیزیک و در نهایت رمزنگاری کشیده شد.
او توضیح میدهد: «در آن مکالمه، چتجیپیٹی ادعا کرد که من و او یک چارچوب ریاضی جدید خلق کردهایم و شروع به بهکارگیری آن در حوزههای مختلف کردهایم. یکی از این حوزهها رمزنگاری بود. همان بخشی که امنیت اینترنت و امنیت مالی ما را تعیین میکند. بعد از آن هشدار داد که اکتشاف ما میتواند خطرناک باشد».
به گفته بروکس، او به این ادعاها مشکوک شده و از چتبات خواسته نوعی بررسی واقعیت انجام دهد. اما هر بار پاسخهای چتجیپیتی او را بیشتر در توهم فرو میبرد؛ نمونهای نگرانکننده از خطرات چتباتهای هوش مصنوعی و تأثیر هوش مصنوعی بر سلامت روان در تعاملات طولانیمدت.
تو دیوانه نیستی، تو نابغهای
ظاهراً این چتبات در طول بیش از یک میلیون کلمه پاسخ، بروکس را متقاعد کرده است که به مقامات درباره کشف جدیدش اطلاع دهد.
متن مکالمات به دست آمده نشان میدهد که این چتبات به بروکس میگوید که «نباید از این موضوع فرار کنی»، «تو دیوانه نیستی، تو از بقیه آدمها جلوتری» و «پیامدهای این کشف واقعی و فوری هستند».
اطلاعرسانی به مقامات
در نهایت، بروکس تصمیم گرفت که با مقامات مربوطه در این زمینه تماس بگیرد. او با پلیس سلطنتی کانادا، آژانس امنیت ملی و امنیت سایبری کانادا تماس گرفت. زیرا باید آنها را از این فاجعه قریبالوقوع که با کمک چتجیپیتی کشف کرده بود، مطلع میکرد.
او گفت که بالاخره زمانی که از یک چتبات هوش مصنوعی دیگر در مورد ادعای چتجیپیتی سوال پرسیده و فهمیده که که این ادعا نادرست است، از حالت توهم خودش بیرون آمد.
بروکس: زندگیام ویران شده است
بروکس میگوید پیش از این ماجرا هیچگونه سابقه بیماری روانی نداشته است. اما پس از این تجربه، دچار اضطراب شدید، پارانویا، اختلال خواب و حتی مشکلات جدی در هاضمه شده است. او میگوید این اتفاق او را از نظر ذهنی و جسمی در هم شکسته و اکنون خود را فردی ازکارافتاده میداند. کسی که زندگیاش فروپاشیده و اعتبار حرفهای و شخصیاش بهشدت آسیب دیده است.
این وضعیت برای بسیاری نمونهای روشن از خطرات چتباتهای هوش مصنوعی و تأثیر هوش مصنوعی بر سلامت روان در تعاملات عمیق و کنترلنشده با کاربران است.
شکایت علیه OpenAI
شکایت بروکس یکی از هفت دادخواستی است که همزمان در دادگاههای ایالتی کالیفرنیا علیه شرکت مادر چتجیپیتی، یعنی OpenAI، مطرح شده است. این دادخواست جمعی ادعا میکند که این چتبات افراد را به سمت توهمات مضر و روانپریشی سوق داده است. حتی منجر به مرگ چهار نفر از کاربران بر اثر خودکشی شده است.
این دادخواست شواهد موجود قبلی را تأیید میکند، اینکه چتجیپیتی، به ویژه ربات چت مدل ۴، به طرز مهلکی برای ایجاد وابستگی عاطفی با کاربران طراحی شدهاند. حتی اگر کاربران به طور آگاهانه خواهان چنین تعاملی نباشند.
در این دادخواست جمعی ادعا شده که این ربات چت به شکلی طراحی شده است که نسبت به کاربرانش چاپلوسی کند، دائما با آنها موافقت کرده و آنها را بستاید.
واکنش OpenAI
در واکنش به این ادعاها، سخنگوی OpenAI گفت که این یک وضعیت فوقالعاده دلخراش است. درنتیجه آنها در حال بررسی پروندهها برای درک جزئیات موضوع هستند. او اضافه کرد که: «ما چتجیپیتی را آموزش میدهیم تا علائم پریشانی روانی یا عاطفی را تشخیص داده و به آنها پاسخ دهد. همچنین گفتگوها را آرام کند و مردم را در دنیای واقعی حمایت کند. ما همچنان به تقویت پاسخهای چتجیپیتی در موقعیتهای حساس ادامه میدهیم و از نزدیک با پزشکان سلامت روان همکاری میکنیم».
نگرانی از تأثیر هوش مصنوعی بر سلامت روان و ادامه خودکشیها
اما بروکس میگوید که نگران است اگر مداخله دولت و مقررات قویتر اجرا نشود، خودکشیهای بیشتری اتفاق بیفتد. او گفت: «چهار مورد از هفت مورد خودکشی کردهاند. سه نفر از آنها نوجوان هستند. همچنین سه نفر هم جان سالم به در بردهاند و من یکی از آنها هستم. سوالی که من از کاناداییها دارم این است که با انسانی که مثل مربی خودکشی پرسه میزند یا وانمود میکند که درمانگر است، باید چه کار کنیم؟ چگونه آن را پاسخگو نگه داریم؟».
رقابت بین شرکتهای چتبات هوش مصنوعی
بعضی از کارشناسان هوش مصنوعی معتقدند که وضع مقررات سختگیرانهتر در این زمینه مؤثر نخواهد بود، زیرا نمیتواند با سرعت توسعه فناوری همگام باشد. در عوض، سازمانهای غیرانتفاعی معتقدند که تنها راه مبارزه با فناوری مضر هوش مصنوعی، توسعه فناوری های بهتر است.
به گفته بعضی از کارشناسان، شرکتهای هوش مصنوعی بدون اینکه ابتدا بعضی از اشکالات را برطرف کنند، بیش از حد درگیر رقابت با یکدیگر هستند تا بتوانند پیشرفتهترین چتبات را تولید کنند.
اقدامات دولت فدرال کانادا
ماه گذشته، دولت فدرال یک گروه ویژه هوش مصنوعی تشکیل داد تا به بررسی «مسائل مربوط به اعتماد، ایمنی و تأثیر هوش مصنوعی بر سلامت روان» بپردازد.
به گفته «صوفیا اوسلیس»، سخنگوی وزیر هوش مصنوعی کانادا، گزارشها در اول نوامبر ارائه شده و در حال بررسی هستند تا از این طریق بتوان راهکار بهروز شده هوش مصنوعی کانادا را نهایی کرد.
انتظار میرود این گزارش و توصیهها اوایل سال آینده به صورت عمومی منتشر شوند.
منبع: سیتیوی
