ضمیمه دانش امروز روزنامه اطلاعات نوشت: به عقیده برخی از پژوهشگرهای هوش مصنوعی، مدلهای زبانی خودگرا ازجمله GPT-4 بارقههایی از هوش واقعی را از خود نشان میدهند اما عده دیگری از آنها با این تفکر مخالف هستند. طبق مقالهای با عنوان «مباحثی روی پژوهشهای یادگیری ماشین» که به سرور پیش چاپ «آرکایو» (arXiv) پست شدهاست، با گذشت زمان و ارتقاء یافتن هرچه بیشتر الگوریتمهای هوش مصنوعی، ایجاد مجموعه دادههایی برای ارزیابی این هوش غیرطبیعی دشوارتر و در عین حال با اهمیتتر میشود.
در حال حاضر برنامههای هوش مصنوعی در استدلال انتزاعی قیاسی ضعیف عمل میکنند. این نتیجهگیری حاصل انجام یک پازل ارزیابی کننده بر مبنای قیاس دیداری توسط انسان و هوش مصنوعی GPT-4 است. در این تست، مفاهیم پایه مثل درون و بیرون، بالا و پایین و مرکز و حاشیه مورد سنجش قرار گرفتند. به شرکتکنندگان انسانی چند الگو که نمایانگر یک مفهوم بودند نشان دادند و از آنها خواستند همان مفهوم را روی یک تصویر متفاوت به کار ببرد.
شرکتکنندگان انسانی بهراحتی پازلهای دیداری را انجام داده و در 88 درصد از موارد مفهوم یکسانی و شباهت را درست تشخیص دادند. برعکس، GPT-4 کوشش زیادی کرد و در نهایت فقط 23 درصد از پازلها را درست انجام داد.
در شاخه مطالعاتی هوش مصنوعی هنوز پاسخی برای روشن شدن ماهیت هوش داده نشدهاست. با نگاهی به عملکرد مدلهای زبانی GPT این پرسش پررنگتر میشود. پژوهشگرهای هوش مصنوعی بهجای طراحی یک تست برای محک میزان هوشمندی هوش مصنوعی باید مجموعه دادههای دقیقتری طراحی کنند که به جنبهها و ویژگیهای خاصی از هوش اختصاص داده شوند. هرچه الگوریتمهای بهتری ساخته شوند، فهمیدن اینکه هوش مصنوعی توانایی انجام چه کارهایی را دارد یا ندارد سختتر میشود. از اینرو، لازم است مجموعه دادههایی که به ارزیابی مقوله هوش و هوش مصنوعی اختصاص دارند اندیشمندانه و حسابشده گردآوری شوند.