يکشنبه ۱۶ مهر ۱۴۰۲ - ۰۰:۲۱

هوش مصنوعی در این حوزه ناتوان می‌شود

در حال حاضر برنامه‌های هوش مصنوعی در استدلال انتزاعی قیاسی ضعیف عمل می‌کنند.

ضمیمه دانش امروز روزنامه اطلاعات نوشت: به عقیده برخی از پژوهشگرهای هوش مصنوعی، مدل‌های زبانی خودگرا ازجمله GPT-4 بارقه‌هایی از هوش واقعی را از خود نشان می‌دهند اما عده دیگری از آن‌ها با این تفکر مخالف هستند. طبق مقاله‌ای با عنوان «مباحثی روی پژوهش‌های یادگیری ماشین» که به سرور پیش چاپ «آرکایو» (arXiv) پست شده‌است، با گذشت زمان و ارتقاء یافتن هرچه بیشتر الگوریتم‌های هوش مصنوعی، ایجاد مجموعه داده‌هایی برای ارزیابی این هوش غیرطبیعی دشوارتر و در عین حال با اهمیت‌تر می‌شود.

در حال حاضر برنامه‌های هوش مصنوعی در استدلال انتزاعی قیاسی ضعیف عمل می‌کنند. این نتیجه‌گیری حاصل انجام یک پازل ارزیابی کننده بر مبنای قیاس دیداری توسط انسان و هوش مصنوعی GPT-4 است. در این تست، مفاهیم پایه مثل درون و بیرون، بالا و پایین و مرکز و حاشیه مورد سنجش قرار گرفتند. به شرکت‌کنندگان انسانی چند الگو که نمایانگر یک مفهوم بودند نشان دادند و از آن‌ها خواستند همان مفهوم را روی یک تصویر متفاوت به کار ببرد.

شرکت‌کنندگان انسانی به‌راحتی پازل‌های دیداری را انجام داده و در 88 درصد از موارد مفهوم یکسانی و شباهت را درست تشخیص دادند. برعکس، GPT-4 کوشش زیادی کرد و در نهایت فقط 23 درصد از پازل‌ها را درست انجام داد.

در شاخه مطالعاتی هوش مصنوعی هنوز پاسخی برای روشن شدن ماهیت هوش داده نشده‌است. با نگاهی به عملکرد مدل‌های زبانی GPT این پرسش پررنگ‌تر می‌شود. پژوهشگر‌های هوش مصنوعی به‌جای طراحی یک تست برای محک میزان هوشمندی هوش مصنوعی باید مجموعه داده‌های دقیق‌تری طراحی کنند که به جنبه‌ها و ویژگی‌های خاصی از هوش اختصاص داده شوند. هرچه الگوریتم‌های بهتری ساخته شوند، فهمیدن این‌که هوش مصنوعی توانایی انجام چه کار‌هایی را دارد یا ندارد سخت‌تر می‌شود. از این‌رو، لازم است مجموعه داده‌هایی که به ارزیابی مقوله هوش و هوش مصنوعی اختصاص دارند اندیشمندانه و حساب‌شده گردآوری شوند.

گزارش خطا
ارسال نظر
captcha
آخرین مطالب