بیش از ۳۵۰ نفر از رهبران صنعت نامهای را امضا کردهاند که در آن هوش مصنوعی را تهدیدی برای بشریت و برابر با خطرات همهگیری و جنگ هستهای میدانند. این افراد در این بیانیه از سیاستگذاران میخواهند خطرات جدی ناشی از هوش مصنوعی که ممکن است از کنترل خارج شوند و برای آینده بشریت خطر بزرگی باشند را در نظر بگیرند.
«سام آلتمن»، مدیر عامل OpenAI، از جمله امضاکنندگان این بیانیه بود که اعلام کرد: «هوش مصنوعی به عنوان تهدیدی برای بشریت باید در کنار سایر خطرات اجتماعی مانند همهگیریها و جنگ هستهای، یک اولویت جهانی باشد.»
«دن هندریکس»، مدیر اجرایی CAIS در مصاحبهای با خبرگزاری سیبیسی گفت: «رقابت در صنعت هوش مصنوعی آن را به یک مسابقه تسلیحاتی تبدیل کرده است. تشدید این اتفاق ممکن است ما را به یک فاجعه بزرگ نزدیک کند.»
پیشرفتهای اخیر هوش مصنوعی امکاناتی را ایجاد کرده است که حامیان آن میگوید میتواند در پزشکی و یا حتی نوشتن پروندههای حقوقی هم مورد استفاده قرار بگیرد. با این حال، برخی نگران مسائلی از جمله نقض حریم خصوصی و انتشار اطلاعات غلطی هستند که این فناوری ممکن است آنها را گسترش دهد.
هندریکس میگوید: «هوش مصنوعی ممکن است در مسائل زیادی اشتباه کند. استفاده عمومی تمام ابزارهای هوش مصنوعی باید بررسی شوند. تشخیص اینکه آیا هوش مصنوعی هدفی متفاوت از هدف ما دارد واقعا دشوار است. این فناوری پتانسیل این را دارد که پنهانکاری کند و این اتفاق اصلا دور از ذهن نیست. من نگران توسعه مستقل تکنولوژی فعلیمان هستم.»
پدرخواندههای هوش مصنوعی در میان موجی از انتقادات
هندریکس و امضاکنندگان این بیانیه خواستار همکاری جامعه بینالملل برای در نظر گرفتن هوش مصنوعی به عنوان یک اولویت جهانی و رسیدگی به خطرات آن هستند.
«کارمی لوی»، تحلیلگر فناوری و روزنامهنگار، در این باره گفت: «تمام مردم در آینده تحت تاثیر هوش مصنوعی قرار خواهند گرفت. لازم نیست تا حتما متخصص یا علاقهمند به آن باشید. درست مانند تغییرات آب و هوایی که اگر هواشناس نباشید، بازهم شما را تحت شعاع قرار خواهد داد، هوش مصنوعی هم زندگی همهی ما را در بر خواهد گرفت.»
این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سوئد منتشر شد. به همین دلیل است که انتظار میرود سیاستمداران در این رویداد به تنظیم و تغییر مقررات هوش مصنوعی بپردازند.
مدیر عاملان شرکتهای هوش مصنوعی DeepMind، Anthropic، مایکروسافت و گوگل از جمله دیگر کسانی بودند که با آلتمن همراه شده و این نامه را امضا کردند. گفتنی است که نام «جفری هینتون»، دانشمند کامپیوتر بریتانیایی-کانادایی و «یوشوا بنجیو»، استاد علوم کامپیوتر دانشگاه مونترال که دو تن از پدرخواندههای هوش مصنوعی بودند نیز در میان این افراد دیده میشد. استادان دانشگاه هاروارد و تسینگهوای چین هم از جمله کسانی بودند که با این موج همراه بودند.
یوشوا بنجیو در این باره به سیبیسی نیوز گفت: «گسترش هوش مصنوعی در حال حاضر به نقطهای رسیده که به Turing Test معروف است. توانایی مکالمات پیچیده ماشینها و انسانها دیگر اصلا دور از ذهن نیست و در حال رخ دادن است. انسانها ممکن است با هوش مصنوعی صحبت کنند و حتی نفهمند که طرف مقابلشان صرفا یک ماشین است. این اتفاق بسیار ترسناک به نظر میرسد.»
بنجیو همچنین نسبت به اتوماسیون اطلاعات غلط توسط این فناوری ابراز نگرانی کرد و اعلام کرد: «سیستمهای هوش مصنوعی در حال حاضر به اندازه انسانها در همه چیز هوش کافی ندارند، اما این مسئله ممکن است تغییر کند. آیا آنها با وجود این تغییر همچنان رفتار خوبی با ما خواهند داشت؟ سوالات زیادی در این باره وجود دارند که بسیار بسیار نگرانکننده هستند و آینده را برای همه مبهم میکنند.»
با این حال، سومین پدرخوانده هوش مصنوعی «یان لیکان» که در حال حاضر در کمپانی متا مشغول به فعالیت است به دلیل امضا نکردن این نامه مورد موجی از انتقادات قرار گرفته است.
بنجیو و ایلان ماسک قبل از تمام این جنجالها به همراه بیش از هزار تن از کارشناسان و مدیران صنایع دیگر در ماه آوریل به خطرات احتمالی این فناوری اشاره کرده بودند.
آلتمن نیز طی هفته گذشته ضمن ابراز نگرانی نسبت به هوش مصنوعی اتحادیه اروپا تهدید کرد که در صورت عدم رعایت قوانین این منطقه را ترک خواهد کرد. گفتنی است که او چند روز بعد از انتقادات سیاستمداران، موضع خود را تغییر داد. «اورسلا فون در لاین»، رئیس کمیسیون اروپا در پی این حواشی اعلام کرد که با آلتمن دیدار خواهد کرد.
مخالفان و موافقان هوش مصنوعی
روشن است که هوش مصنوعی همچنان طرفداران خاص خود را دارند و عدهای هستند که معتقدند این فناوری تهدیدی برای بشریت به حساب نمیآید.
«راهول کریشنان»، استادیار دپارتمان علوم کامپیوتر دانشگاه تورنتو، میگوید: «من فکر میکنم که هوش مصنوعی هنوز برای بسیاری از افراد پیامدهای عملی زیادی دارد که همین باعث شده دیدگاه مثبتی به آن نداشته باشند. البته ما هنوز برای این مسئله راهحلهای خوبی نداریم. هوش مصنوعی مسئولیتهای خاصی در پی دارد که در آن افراد باید بر یکسری از اصول تسلط داشته باشند.»
وی افزود: «مقررات هوش مصنوعی هنوز در دست تغییر هستند، اما ما باید میان آنها تعادل ایجاد کنیم تا مطمئن باشیم که این فناوریها به طور توسعه یافته مورد استفاده قرار میگیرند و مانع پیشرفت ما نخواهند شد. البته یکسری از مواضع و دیدگاههای خاصی وجود دارند که بر نحوه برنامهریزی الگوریتم یادگیری این سیستمها تاثیر میگذارند. مثلا اگر کسی برای دریافت کارت اعتباری بخواهد از هوش مصنوعی استفاده کند، این فناوری دادههای مربوط به وامهای گذشتهاش را تحت نظر میگیرد و همین الگوریتم ممکن است پیشبینیهای هوش مصنوعی را دچار تعصب کند.»
«لوک استارک»، محقق تاثیرات اجتماعی، اخلاقی و فرهنگی هوش مصنوعی در دانشگاه وسترن لندن با این مسئله اظهار موافقت کرد. او اعلام کرد که استفاده از دادههای تاریخی در الگوریتم هوش مصنوعی میتواند باعث تشدید تعصبات فعلی انسانها شود.
او افزود: «من فکر میکنم این بک خطر واقعی است که امروز با آن روبرو هستیم. این مسئله جوامع مورد تبعیض، کسانی که کمترین علم را نسبت به علوم کامپیوتر دارند، را تحت تاثیر قرار داده است.»
استارک با وجود تمام اینا معتقد است که تهدیدات فعلی هوش مصنوعی کمی فراتر از حد تصور رفته و چنین فناوریهایی برای گروهی از افراد مورد استفاده قرار میگیرند که ممکن است دانش و آگاهی چندانی نداشته باشند.
افرادی که میترسند شغل خود را به دلیل ظهور هوش مصنوعی از دست بدهند
- عضویت در کانال تلگرام رسانه هدهد کانادا
- اخبار روز کانادا و اخبار مهاجرت کانادا را در رسانه هدهد دنبال کنید
- هم اکنون شما هم عضو هفته نامه رسانه هدهد کانادا شوید
منبع: سیبیسی