دوشنبه ۱۰ مهر ۱۴۰۲ - ۰۶:۳۱
نظرات: ۰
۰
-
هوش مصنوعی باعث خودکشی یک کاربر شد!

مطمئناً تعجب‌آور نیست که اولین حمله متا به هوش مصنوعی دارای شخصیت، چت ربات‌هایی هستند که عمدتاً نوجوانان را هدف قرار می‌دهند.

خبرآنلاین نوشت: کارشناسان احساس می‌کنند که متا با تاکید بر «ویژگی های انسانی» هوش مصنوعی بازی خطرناکی را، راه انداخته است. ون دو پول گفت:«من واقعاً ترجیح می‌دادم این گروه به جای اینکه سعی کنند آنها را انسانی‌تر جلوه دهند تلاش بیشتری برای توضیح محدودیت‌های این چت‌بات‌ها می‌کردند».

ظهور LLM های قدرتمند باعث ناراحتی شده است؛ این ChatGPT ها نوع سومی از عامل ها هستند که جایی بین دو افراطی قرار می گیرند، دوگانگی بین اینکه آیا رایانه است یا موجود زنده و انسان‌ها هنوز در حال یادگیری نحوه تعامل با این موجودات عجیب و غریب هستند. بنابراین، با ایجاد این باور در مردم که یک چت بات می‌تواند شخصیتی داشته باشد، متا پیشنهاد می‌کند که با او بیشتر شبیه یک انسان دیگر رفتار شود تا یک رایانه.

هوش مصنوعی، عامل مرگ

به گفته ون دو پول، «کاربران اینترنت تمایل دارند به آنچه این هوش مصنوعی‌ها می‌گویند اعتماد کنند» که این موضوع، آنها را خطرناک می‌کند. این فقط یک خطر تئوری نیست، مردی در بلژیک در مارس ۲۰۲۳ پس از بحث در مورد عواقب گرمایش جهانی با یکی از هوش مصنوعی‌ها به مدت شش هفته، دست به خودکشی زد.

مهمتر از همه، اگر مرز بین دنیای هوش مصنوعی و انسان در نهایت به طور کامل محو شود، به طور بالقوه، اعتماد را به هر چیزی که آنلاین می‌یابیم از بین می‌برد زیرا ما نمی‌دانیم چه کسی چه چیزی را نوشته است. همانطور که کارشناسی در مقاله خد هشدار داد، این امر در را به روی ویران کردن تمدن ما باز می کند و چت کردن با هوش مصنوعی شبیه به هیلتون و دیگر اشخاص به این معنی است که ما در مسیر نابود کردن جهان هستیم.

پربازدیدترین

پربحث‌ترین

آخرین مطالب

بازرگانی