به گزارش نیویورک تایمز، بعضی از افراد هشدار دادهاند که هوش مصنوعی میتواند به اندازهای قدرتمند شود که اگر کاری برای کاهش سرعت پیشرفت آن انجام نشود، ظرف چند سال ممکن است در مقیاس جهانی اختلالات زیادی را ایجاد کرده و باعث انقراض انسان شود. البته محققان تا امروز هنوز هم توضیحی دربارهی چگونگی وقوع این پدیده ارائه ندادهاند.
با این حال، گروهی از کارشناسان صنعت هشدار دادهاند که هوش مصنوعی میتواند موجودیت بشر را تهدید کند و باعث انقراض ما شود. در یکی از نامههای سرگشادهی یک خطی که توسط سازمان غیر انتفاعی مرکز ایمنی هوش مصنوعی منتشر شده آمده است: «کاهش خطر انقراض انسان توسط این فناوری باید در کنار سایر خطرات جهانی مانند همهگیریها و جنگ هستهای در اولویت قرار بگیرد.»
این بیانیه توسط بیش از ۳۵۰ مدیر، محقق و مهندس از بخش هوش مصنوعی مانند «سام آلتمن»، مدیر اجرایی OpenAI، و همچنین «جفری هینتون» و «یوشوا بنجیو» برندگان جایزهی تورینگ امضا شده است. با اینکه انقراض انسان توسط هوش مصنوعی به عنوان یک پیشگویی به حساب میآید، اما دربارهی چگونگی وقوع آخرالزمان هوش مصنوعی جزئیات کافی ارائه نداده است.
استفاده افراد خطرناک از هوش مصنوعی معضل بزرگ در آینده
«دن هندریکس»، مدیر مرکز ایمنی هوش مصنوعی، در این باره میگوید: «یکی از سناریوهای ممکن در رابطه با انقراض انسان این است که هوش مصنوعی به دست افراد خطرناک برسد. همچنین از آن برای تولید سلاحهای زیستی جدید کشنده استفاده کنند. حتی ممکن است آن را طوری جهتدهی کنند که با انجام فعالیتهای سرکشانهی مختلف به بشر آسیب برساند.»
هندریکس معتقد است اگر این فناوری به میزان کافی هوشمند یا توانا باشد ممکن است برای جهان خطرات قابل توجهی ایجاد کند. یک خطر دیگر، استفادهی هکرها از آن برای انجام فعالیتهای خرابکارانه است. «اریک اشمیت»، مدیر عامل سابق گوگل، در یکی از سخنرانیهایش گفت: «هوش مصنوعی ممکن است در آینده در مسائل سایبری و همچنین زیستشناسی استفاده شود.»
پیشگیری از پیشرفت روزبهروز هوش مصنوعی
اشمیت معتقد است انقراض انسان در حال حاضر دور از ذهن به نظر میرسد، اما پیشرفت سریع هوش مصنوعی احتمال وقوع آن را افزایش خواهد داد. او در این باره میگوید: «ما از امروز باید برای روزی که این اتفاق پیش میآید آماده باشیم. تا بتوانیم با روشهایی مطمئن جلوی سواستفادهی افراد شرور را بگیریم.»
یکی از نگرانیهای دیگر در این مورد سرکش شدن خود به خودی هوش مصنوعی است. «تام چیورز»، روزنامهنگار و نویسندهی مقالات علمی، در مصاحبهای گفته است: «هوش مصنوعی که برای رهایی از سرطان ساخته شده میتواند یاد بگیرد برای از بین بردن همهی سلولهای سرطانی موشکهای هستهای را منفجر کند! پس ترس ما این نیست که هوش مصنوعی مخرب شود. ترس ما از توانمند شدن آن است. ابزارهای هوش مصنوعی فقط به بالا بردن نتیجه فکر میکنند. همین موضوع آن را از انسانیت دور کرده است. همچنین احتمال بروز اشتباهات وحشتناک را بالا میبرد.»
با توجه به تمام این موضوعات، این روزها راههای تنظیم و مهار هوش مصنوعی به موضوع محفل بسیاری از افراد تبدیل شده است. به همین دلیل هم گروهی از کارشناسان هوش مصنوعی، مدیران صنعت فناوری و دانشمندان پیشنهاد کردهاند که شرکتهای توسعه دیجیتالی بهتر است از رقابت دست بکشند تا مسیر پیشرفت این فناوری از کنترل خارج نشود. آنها گفتهاند که آموزش سیستمهای هوش مصنوعی باید متوقف شود و دولتها هم باید وارد عمل شوند. آلتمن در این مورد میگوید: «برای اطمینان از اینکه توسعه اَبر هوشی به گونهای ایمن رخ دهد، تمام نهادهای مسئول باید با هم همکاری کنند.»
تحقیقات گسترده ایالات متحده بر روی این فناوری
طبق گزارش آسوشیتدپرس، دولت آمریکا به طور علنی در حال سنجش احتمالات و خطرات هوش مصنوعی است. ظاهرا بایدن هم با مدیران ارشد اجرایی فناوری دربارهی اهمیت توسعهی اخلاقی و مسئولانهی هوش مصنوعی گفتوگو کرده است. کاخ سفید نیز در ماه می، از سرمایهگذاری فدرال در تحقیق و توسعه رونمایی کرد که نوآوری مسئولانهای را ترویج میدهد که در خدمت منافع عمومی است، از حقوق و ایمنی مردم محافظت میکند و در عین حال، از ارزشهای دموکراتیک هم حمایت میکند.
ايلان ماسک: هوش مصنوعی همه كارها را از ما خواهد گرفت
- عضویت در کانال تلگرام رسانه هدهد کانادا
- اخبار روز کانادا و اخبار مهاجرت کانادا را در رسانه هدهد دنبال کنید
- هم اکنون شما هم عضو هفته نامه رسانه هدهد کانادا شوید
منبع: دویک