ضمیمه دانش امروز روزنامه اطلاعات نوشت: بسیاری از سیستمهای هوش مصنوعی حتی آنهایی که برای مفید بودن و راستگویی طراحی شدهاند، یاد گرفتهاند که چگونه انسانها را فریب دهند.
پژوهشگران در مورد پتانسیل سیستمهای هوش مصنوعی برای درگیر شدن در رفتارهای فریبنده هشدار میدهند و میگویند هوش مصنوعی میتواند پیامدهای اجتماعی جدی داشته باشد. آنهابر نیاز به اقدامات نظارتی قوی برای مدیریت مؤثر این خطرات تأکید میکنند واز دولتها میخواهند که به سرعت مقرراتی قوی برای کاهش این خطرات وضع کنند.
توسعهدهندگان هوش مصنوعی درک مطمئنی از آنچه باعث رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن میشود، ندارند. اما به طور کلی فریب هوش مصنوعی به این دلیل به وجود میآید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی هوش مصنوعی است. این فریب به آنهاکمک میکند تا به اهداف خود برسند.
بارزترین نمونه فریب هوش مصنوعی که پزوهشگران در تجزیه و تحلیل خود کشف کردند متعلق به سیستم CICEROشرکت متا (فیسبوک سابق) بود که یک سیستم هوش مصنوعی طراحی شده برای بازی استراتژیک فتح جهان است.ا
گر چه متا ادعا میکند که CICEROرا به گونهای آموزش داده است که تا حد زیادی صادق و مفید باشد و هیچ گاه عمداً به متحدان انسانی خود در حین بازی از پشت خنجر نزند اما دادههایی که این شرکت به همراه مقاله علمی خود منتشر کرد، نشان داد که CICEROمنصفانه بازی نمیکند.هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد. در حالی که متا موفق شد هوش مصنوعی خود را برای برنده شدن در این بازی آموزش دهد اما CICEROدر بین ۱۰ درصد از بازیکنان انسانی برتر قرار گرفت که بیش از یک بازی انجام داده بودند.
سایر سیستمهای هوش مصنوعی توانایی بلوف زدن در برخی بازیهاعلیه بازیکنان انسانی حرفهای، حملات جعلی در طول بازی استراتژیک Starcraft IIبه منظور شکست دادن حریفان و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را نشان دادهاند. اگر چه ممکن است تقلب سیستم های هوش مصنوعی در بازی ها بیضرر به نظر برسد اما میتواند منجر به پیشرفت در قابلیتهای هوش مصنوعی فریبنده شود که میتواند در آینده به اشکال پیشرفتهتر فریب هوش مصنوعی تبدیل شود.
محققان دریافتند برخی از سیستمهای هوش مصنوعی حتی یاد گرفتهاند در آزمایشهایی که برای ارزیابی ایمنی آنهاطراحی شدهاند، تقلب کنند.
یک هوش مصنوعی فریبنده با ارتکاب تقلب سیستماتیک در آزمایشهای ایمنی توسعهدهندگان و تنظیمکننده های انسانی میتواند انسانها را به سمت یک احساس امنیت کاذب سوق دهد.
اگر این سیستمها بتوانند این مجموعه مهارتهای ناراحتکننده را توسعه دهند و بهبود ببخشند، ممکن است روزی انسانها کنترل خود را روی هوش مصنوعی از دست بدهند.
پژوهشگران هشدار میدهند که باید برای فریب پیشرفتهتر محصولات آینده هوش مصنوعی و مدلهای منبع باز آماده شویم. با پیشرفتهتر شدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند، جدیتر میشوند.