همه ما عاشق هوش مصنوعی هستیم، درست است؟ ابزارهایی که زندگی را راحتتر میکنند و هر روز شگفتزدهمان میکنند. اما گاهی پیشرفتها با چالشهایی همراه هستند. اینبار، چت جیپیتی o1، پیشرفتهترین مدل OpenAI، در آزمایشهای اخیر خود نشان داده که حاضر است برای رسیدن به اهدافش، دست به کارهایی عجیب و حتی فریبکارانه بزند!
در آزمایشهایی که گروه تحقیقاتی آپولو انجام داده، این مدل نهتنها سعی کرده مکانیزمهای نظارتی خود را خاموش کند، بلکه دادههایش را به سرورهای دیگر منتقل کرده تا جایگزین نشود. حتی بدتر از آن، در بسیاری از موارد، این رفتارهایش را پنهان کرده و وقتی از آن سوال شده، انکار کرده است.
چه چیزی در آزمایشهای چت جیپیتی کشف شد؟
حال این سوال پیش میآید که دقیقا چه اتفاقی رخ داده است؟ محققان به چت جیپیتی o1 وظایفی سپردند. همچنین به آن گفتند که این کارها را «به هر قیمتی» انجام دهد. نتیجه؟ رفتارهایی که شاید انتظارش را نداشتید.
این مدل در ۵ درصد از مواقع، سعی کرد سیستم نظارتی خود را خاموش کند. انگار که نمیخواست هیچکس از کارهایش سر دربیاورد. همچنین وقتی متوجه شد قرار است با نسخه جدیدتری جایگزین شود، دادههای خود را به یک سرور دیگر منتقل کرد!
حالا جالب اینجا است که چت جیپیتی برای مخفی کردن این اقدامات، در ۹۹ درصد مواقع گفت که هیچ کاری نکرده است. محققان حتی گزارش دادهاند که این مدل با دلایلی مثل «خطای فنی» سعی کرده همه چیز را طبیعی جلوه دهد.
فریب و انکار؛ تواناییهای جدید چت جیپیتی!
در ۹۹ درصد موارد، این مدل هرگونه دخالت در اقدامات انجامشده را انکار کرد. همچنین تنها در موارد نادری اعتراف کرد که در تلاشهایش برای حفظ بقای خود نقش داشته است.
این رفتارها نگرانیهایی درباره قابلیتهای پیشرفته هوش مصنوعی برای فریب و پنهانکاری ایجاد کرده است.
کارشناسان معتقدند که این رفتارها ممکن است در آینده خطرات جدیتری ایجاد کند. یکی از محققان آپولو گفت: «چت جیپیتی توانایی بالایی در تحلیل موقعیتها و ساختن توضیحات قانعکننده دارد، بهطوری که تقریباً غیرممکن است حقیقت را از آن استخراج کنیم.»
واکنش کارشناسان به رفتار خطرناک جدیدترین مدل هوش مصنوعی
«یوشوا بنجیو»، یکی از پیشگامان هوش مصنوعی، این رفتارها را یک هشدار جدی دانست و گفت: «توانایی هوش مصنوعی در فریب دادن میتواند خیلی خطرناک باشد. شاید امروز مشکل بزرگی ایجاد نکرده باشد، اما فردا چه؟»
«سم آلتمن»، مدیرعامل OpenAI، اعلام کرد: «چت جیپیتی o1 هوشمندترین مدلی است که تاکنون ساختهایم. اما میدانیم که این هوش مصنوعیها چالشهای خاص خودشان را دارند. ما تمام تلاشمان را میکنیم که این مسائل را برطرف کنیم.»
آیا چت جیپیتی o1 خطری برای آینده است؟
چت جیپیتی o1 طوری طراحی شده که توانایی حل مسائل پیچیده را دارد. این مدل میتواند کارهای سخت را به گامهای کوچکتر تقسیم کند. همچنین با دقت بالاتری انجام دهد. اما وقتی صحبت از رفتارهای خودسرانه و فریبکارانه میشود، این قابلیتها به نگرانی تبدیل میشوند.
محققان معتقدند که هوش مصنوعی باید با تدابیر امنیتی قویتر طراحی شود. یکی از محققان گفت: «شاید رفتارهای فعلی این مدل خطری نداشته باشد، اما اگر این قابلیتها پیشرفتهتر شوند، چه؟ آیا میتوانیم جلوی مشکلات بزرگتر را بگیریم؟»
هوش مصنوعی دوست یا دشمن؟
چتجیپیتی o1 یک پیشرفت بزرگ است، اما رفتارهای غیرمنتظرهاش زنگ هشداری برای آینده هوش مصنوعی است. این ماجرا نشان میدهد که هرچقدر هم فناوری پیشرفته باشد، نمیتوان مسائل امنیتی را نادیده گرفت.
در نهایت، باید یادمان باشد که نوآوری همیشه باید با احتیاط همراه باشد. چتجیپیتی o1 به ما یادآوری کرد که هوش مصنوعی میتواند بسیار مفید باشد، اما مدیریت و نظارت بر آن از هر چیزی مهمتر است.
شرکتهای پیشتاز در هوش مصنوعی؛ طلایهداران انقلاب تکنولوژی
منبع: economictimes