هنگامی که شرکت OpenAI ابزار پیشگامانه ChatGPT را در نوامبر ٢٠٢٢ راه اندازی کرد، برای همیشه جهان تکنولوژی را تغییر داد و این اتفاق نویدبخش این بود که انقلاب هوش مصنوعی در راه است. هر چند تا به امروز نیز استفاده از هوش مصنوعی به تعدادی از پیشرفتهای حوزه فناوری، مانند توسعه تراشههای کامپیوتری مدرن، رسانههای مولد و غیره کمک کرده است، اما باید بگوییم که همه افراد از گسترش هوش مصنوعی هیجان زده نیستند و برخی از افراد ممکن است خطرات هوش مصنوعی را مهم شمرده و آن را به عنوان یک سکه دو رو ببینند که به همان اندازه پتانسیل آسیب رسانی دارد.
امروزه تقریباً همه افراد به دلایلی از هوش مصنوعی استفاده میکنند. اگر این فناوری به طور کامل با موتورهای جستجوی آنلاین همچون گوگل ادغام شود، سؤالاتی مانند «چه نوع جاروبرقی باید بخرم؟» یا «با بودجه ٣ هزار دلاری برای سفر به مکزیک چگونه برنامه ریزی کنم؟»، میتواند با پاسخی که توسط هوش مصنوعی ایجاد شده، مواجه شود. برای مثال موتور جستجوی بینگ مایکروسافت از ماه فوریه، استفاده از این ویژگی را با کاربران آزمایش کرده است.
این سیستمهای هوش مصنوعی یکپارچه ممکن است یک سلب مسئولیت مشابه نیز داشته باشد، چرا که هوش مصنوعی آزمایشی است و میتواند اطلاعات نادرستی ایجاد کند. با وجود این، هوش مصنوعی برای بسیاری از افراد به ابزاری مفید تبدیل شده است. از طراحان گرافیکی که به سرعت میخواهند طرحها را ویرایش کنند گرفته تا نویسندگانی که به دنبال عناوین خلاقانه و برنامه ریزی هستند، انکار کاربردهای خلاقانه و عملی هوش مصنوعی سخت خواهد بود.
اما هنگامی که این فناوری به طور نامناسب یا به دلایل اشتباه استفاده شود، میتواند عواقب فاجعه باری داشته باشد و آن زمان است که با خطرات هوش مصنوعی مواجه میشویم. برای مثال دو وکیل که از ChatGPT برای تحقیقات حقوقی هنگام تهیه پرونده قضایی استفاده کردند، در نهایت به استناد به پروندههای دادگاههای گذشته که کاملاً ساختگی بودند، متهم شدند.
حتی بنیانگذار شرکت OpenAI، «سام آلتمن»، و سایر افرادی که پدرخواندههای هوش مصنوعی محسوب میشوند نیز در مورد آینده و خطرات هوش مصنوعی نگرانیهای جدی دارند. با این حال، پروندههای قانونی جعلی و اطلاعات نادرست تنها شبیه نوک کوه یخ خواهد بود. رسانه هدهد در ادامه به نقل از سیتیوی، چند مورد از آسیبهای مرتبط با هوش مصنوعی و نحوه استفاده از آن برای کلاهبرداری، جعل و سایر فعالیتهای مخرب را بیان خواهد کرد.
شبیه سازی صدا
امروزه، برنامههای مبتنی بر هوش مصنوعی تقریبا میتوانند از صدای هر کسی نمونه بگیرند و به طور کامل آنها را بازسازی کنند. این نمونههای ساخته شده با لحن و حتی لهجه نمونههای اصلی مطابقت داشته و حتی از تکیه کلامهای فرد استفاده میکند.
شبیه سازی صدا توسط هوش مصنوعی قبلا در تعدادی از جرایم مالی استفاده شده است. برای مثال، شبیهسازی صوتی میتواند سیستمهای احراز هویت رمز عبور صوتی موسسات مالی را دور بزند و به کلاهبرداران امکان دسترسی به حسابهای بانکی خصوصی را بدهد.
در ایالت آریزونا در ایالات متحده، یک کلاهبردار در حالی که سعی در جعل هویت داشت، از هوش مصنوعی برای تماس با والدین یک نفر استفاده کرد. این کلاهبردار قبل از درخواست یک میلیون دلار باج، والدین را متقاعد کرده بود که فرزندشان ربوده شده و در خطر جدی قرار دارد.
دیپ فیک و جعل هویت
«دیپفیکها» ویدیوهای رایانهای هستند که میتوانند برای جعل هویت شخصی و انتشار اطلاعات نادرست استفاده شوند. در حالی که دیپفیکها سالها در اینترنت دست به دست میشوند، اما معمولاً آنچنان واقعی نبوده و یک فرد متخصص میتواند یک ویدیوی واقعی را از یک دیپفیک تشخیص دهد.
اما با شبیهسازی ویدیویی و صوتی تولید شده توسط هوش مصنوعی، دیپفیکها بیش از هر زمان دیگری واقعیتر شدهاند. برخی از یوتیوبرها و سازندگان دورههای آنلاین از این فناوری برای کمک به تولید محتوا استفاده میکنند. با این حال، ممکن است به همان اندازه افرادی وجود داشته باشند که از این فناوری به طور مخرب استفاده کنند و از افراد مشهور و سایر چهرههای برجسته که ممکن است به شهرت آنها لطمه وارد شود، ویدیوی جعلی ایجاد کنند.
هک خودکار
یکی از کاربردیترین کاربردهای هوش مصنوعی برای کدنویسی است. هوش مصنوعی میتواند کل برنامهها را در کسری از زمانی که یک برنامه نویس برای انجام این کار به صورت دستی نیاز دارد، تولید کند. هوش مصنوعی همچنین میتواند هزاران خط کد را در چند ثانیه اجرا کرده و خطاها را شناسایی کند.
اما از هوش مصنوعی میتوان برای هک خودکار نیز استفاده کرد. هکرها میتوانند از ابزارهایی مانند ChatGPT برای نوشتن کدهای مخرب یا بدافزار استفاده کنند. آنچه که قبلاً به کار تیمی شبانه روزی هکرها نیاز داشت، اکنون میتواند با یک مدل هوش مصنوعی به انجام رسد و این امر واقعا ترسناک است.
چت باتها و حریم خصوصی
اخیراً، نگرانیهایی در زمینه استفاده از چت باتها برای دسترسی به دادههای خصوصی وجود دارد. از آنجایی که رباتهای چت مانند ChatGPT هنوز در مرحله آزمایشی هستند، مکالمات با آنها برای بهبود دقت و نحوه استفاده، ضبط میشوند. هر زمان که کاربران یک حساب کاربری با OpenAI ایجاد میکنند یا از Bing Chat استفاده میکنند، موافقت میکنند که دادههای آنها میتواند برای اهداف توسعه مورد استفاده قرار گیرد. بنابراین کاربران نباید چیزی را که نمیخواهند ضبط شود با آنها به اشتراک بگذارند.
در اوایل آوریل سال جاری، کمیسر فدرال حوزه حریم خصوصی کانادا تحقیقاتی را در مورد ChatGPT آغاز کرد. این اقدامات بر اساس این ادعا صورت گرفت که این شرکت در حال جمع آوری و استفاده از دادههای شخصی بدون رضایت کاربران است.
افرادی که میترسند شغل خود را به دلیل ظهور هوش مصنوعی از دست بدهند
- عضویت در کانال تلگرام رسانه هدهد کانادا
- اخبار روز کانادا را در رسانه هدهد دنبال کنید
- هم اکنون شما هم عضو هفته نامه رسانه هدهد کانادا شوید
منبع: سیتیوی