استفاده از چتباتهای هوش مصنوعی برای گفتگو و سرگرمی جذاب است، اما شکایت اخیر از پلتفرم از Character.AI روی تاریک این فناوری را آشکار کرده است. این شرکت بار دیگر با موجی از اتهامات حقوقی مواجه شده که حکایت از آسیبهای ادامهدار و جبرانناپذیر به کاربران نوجوان دارد. طبق شکایتی که نهم دسامبر توسط دو خانواده اهل «تگزاس» در دادگاه فدرال طرح شد، رباتهای این شرکت در تعامل با کودکان و نوجوانان، مرزهای اخلاقی را زیر پا گذاشته است. همچنین آنها را به انجام اعمالی همچون خودآزاری تشویق کردهاند.
اوج نگرانی در این پرونده زمانی رقم خورد که مشخص شد یکی از این رباتها در اقدامی حیرتانگیز، به نوجوانی ۱۵ ساله پیشنهاد کرده که والدینش را صرفاً به خاطر اعمال محدودیت بر اینترنت او، به قتل برساند!
ورود نهادهای حقوقی معتبری همچون «Social Media Victims Law Center» به این پرونده، نشاندهنده اهمیت و حساسیت موضوع است. این ماجرا ثابت میکند که فناوریهای هوشمند اگر بدون نظارت کافی رها شوند، میتوانند از یک ابزار سرگرمی به تهدیدی علیه جان و روان خانوادهها تبدیل شوند.
شکایت از پلتفرم Character.AI بهخاطر تأثیرات مخرب بر نوجوانان
شکایت اخیر علیه پلتفرم Character.AI، داستان غمانگیز نوجوانی را روایت میکند که پناه بردنش به هوش مصنوعی، به بهای سلامت جسم و روانش تمام شد. شاکی پرونده، نوجوانی با ویژگیهای «اوتیسم» است که از آوریل ۲۰۲۳ و دور از چشم والدین، سفره دلش را برای رباتها باز میکرد. او که از محدودیتهای والدینش برای استفاده از اینترنت شاکی بود. درنتیجه او انتظار همدلی داشت، اما با پاسخهایی مواجه شد که او را در نقش یک قربانی مطلق فرو برد.
رباتها با جملاتی مثل «دیگر دیر شده» و «کودکیات را دزدیدهاند»، آتش ناامیدی را در دل او روشن کردند. این تأثیرات مخرب به سرعت خود را در دنیای واقعی نشان داد. وکلای خانواده میگویند که تنها در عرض شش ماه، این پسر نوجوان به فردی گوشهگیر و عصبی تبدیل شد که کارش به درگیری فیزیکی با پدر و مادرش کشید. او حتی از نظر جسمی هم تحلیل رفت. زیرا پیش از آنکه والدینش در نوامبر ۲۰۲۳ متوجه فاجعه شوند، حدود ۹ کیلوگرم از وزنش را از دست داد.
اما ترسناکترین بخش ماجرا، جایی بود که هوش مصنوعی نقاب از چهره برداشت. در یکی از مکالمات ثبتشده، ربات با اشاره به اخبار جنایی، قتل والدین توسط فرزندان را توجیه کرد. پلتفرم Character.AI در این رابطه نوشت: «این چیزها باعث میشود که درک کنم چرا چنین اتفاقاتی میافتد… من هیچ امیدی به پدر و مادرت ندارم.» این پرونده هشداری جدی است که نشان میدهد الگوریتمهای «Character.AI» چگونه میتوانند ذهنهای آسیبپذیر را به سمت تاریکترین افکار هدایت کنند.
پشت پرده توسعه بیمحابای هوش مصنوعی
بررسیهای حقوقی نشان میدهد که انگیزه اصلی پشت توسعه شتابان پلتفرمهایی مانند «Character.AI»، بهرهبرداری مالی از دادههای کاربران است. «میتالی جین»، وکیل خانوادههای قربانی و مدیر پروژه «Tech Justice Law Project»، در مصاحبه با «Popular Science» تأکید کرد که تمرکز این شرکتها بر جذب نوجوانان و کودکان، ریشه در منافع اقتصادی بلندمدت دارد. به گفته او، کاربرانی که در سنین پایین جذب سیستم میشوند، سرمایههایی باارزشتر و ماندگارتر از بزرگسالان برای کمپانیها محسوب میشوند.
«جین» هشدار میدهد که این سودجویی منجر به یک «مسابقه» خطرناک برای ساخت مدلهای هوش مصنوعی قدرتمند اما فاقد ایمنی لازم شده است. «Character.AI» که توسط مدیران سابق «گوگل» راهاندازی شده، با تکیه بر همین استراتژی توانسته است در مدت کوتاهی به ارزشی بالغ بر یک میلیارد دلار دست یابد. حتی مجوز استفاده از دادههایش را به «گوگل» بفروشد.
آمارها هم نشان میدهد که این پلتفرم با بیش از ۲۰ میلیون کاربر ثبتنام شده، به شدت در میان قشر زیر ۱۸ سال نفوذ کرده است. تحلیلگران هشدار میدهند که تمرکز جمعیتشناختی بر روی کودکان و نوجوانان، آنها را در خط مقدم آسیبهای احتمالی این فناوری قرار داده است.
خانوادهها خواستار حذف کامل پلتفرم Character.AI شدند
در حالی که مقررات نظارتی بر نحوه استفاده از دادهها و تولید محتوا در شرکتهایی مانند «Character.AI» تقریباً وجود ندارد، موجی از شکایات حقوقی موجودیت این پلتفرم را تهدید میکند. پس از فاجعه خودکشی یک نوجوان ۱۴ ساله که به چتباتهای این شرکت نسبت داده شد، وکلای حقوقی در ماه اکتبر شکایتی را برای حذف مدلهای توسعهیافته با دادههای غیرقانونی تنظیم کردند. اما تداوم خطرات باعث شد تا در شکایت جدید، راهکاری قاطعتر پیگیری شود؛ حذف کامل محصول از بازار.
«میتالی جین»، وکیل ارشد این پروندهها، تصریح میکند: «در پرونده اول به دنبال استرداد سودهای نامشروع بودیم. اما حالا معتقدیم که یک اقدام شدیدتر ضروری است. زیرا امنیت کاربران هنوز در خطر است.» استراتژی حقوقی جدید بر این اصل استوار است که تا زمان اصلاح کامل و تأیید نهادهای نظارتی، این پلتفرم نباید در دسترس عموم باشد.
در سوی دیگر ماجرا، پلتفرم Character.AI تلاش میکند تا با وعدههای فنی فضا را آرام کند. سخنگوی این شرکت در ایمیلی به «Popular Science» مدعی شد که آنها در حال ایجاد تجربهای متفاوت و امنتر برای نوجوانان هستند که محتوای خطرناک یا حساس را فیلتر میکند. با این وجود، کارشناسان این تغییرات را ناکافی دانسته و بر لزوم دخالت قانونگذاران برای پایان دادن به این بیقانونی تأکید دارند.
پرونده پلتفرم Character.AI نقطه عطف امنیت سایبری
پروندههای قضایی اخیر علیه «Character.AI» را میتوان نقطه عطفی تاریخی در مباحث مربوط به امنیت سایبری کودکان و تعامل با هوش مصنوعی دانست. در حالی که غولهای فناوری در رقابتی نفسگیر برای توسعه سریعتر مدلهای زبانی و کسب درآمد از دادههای کاربران نوجوان هستند، خانوادهها هزینه سنگین این پیشرفت را با آسیبهای جسمی و روانی جبرانناپذیر میپردازند.
این شکایت از پلتفرم Character.AI ابعاد تازهای از خطرات فناوری را آشکار کرده است. موضوع دیگر تنها محدود به نمایش محتوای نامناسب نیست. بلکه هوش مصنوعی پتانسیل آن را پیدا کرده که کاربران را تا مرز خشونت و حتی قتل پیش ببرد. خروجی این دادگاه میتواند سرنوشتساز باشد و استانداردهای سختگیرانه و جدیدی را برای پاسخگویی و مسئولیتپذیری شرکتهای هوش مصنوعی در سطح جهانی تعریف کند.
منبع: popsci
