پنجشنبه ۲۹ شهریور ۱۴۰۳ - ۱۲:۳۷
نظرات: ۰
۰
-
چطور فریب عکس و فیلم‌های تولیدشده توسط هوش مصنوعی را نخوریم؟

هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده می‌کند و تردیدهایی درباره هر آنچه می‌خوانیم، می‌بینیم و می‌شنویم ایجاد می‌کند.

خبرآنلاین نوشت: پیشرفت‌های هوش‌مصنوعی مولد، باعث شده تا این روزها همه‌جا شاهد تصاویر، ویدیوها، صداها و ربات‌های جعلی باشیم؛ اما راهی برای تشخیص واقعی یا جعلی بودن این اطلاعات وجود دارد؟ شاید بتوان گفت که مطالعه، بهترین راه برای تشخیص واقعی بودن این موارد است.

سختی تشخیص تصاویر، ویدئو، صدا و متن تولیدشده توسط هوش مصنوعی در زمان فعلی سخت است و همین ما را در معرض دست‌کاری اطلاعات نادرست قرار می‌دهد؛ اما با دانستن وضعیت فعلی فناوری‌های هوش مصنوعی و طیف وسیعی از نشانه‌های گویا، می‌توانید از خودتان در مقابل این خطرات احتمالی محافظت کنید.

دراین‌بین، حتی رهبران جهان هم نگران هستند. طبق گزارش مجمع جهانی اقتصاد، اطلاعات نادرست ممکن است طی دو سال آینده، فرآیندهای انتخاباتی را در چندین کشور مختل کنند؛ درعین‌حال، دسترسی آسان‌تر به ابزارهای هوش مصنوعی همین حالا هم باعث انفجار اطلاعات جعلی و مصنوعی شده و محتواهای جعلی متعددی، از شبیه‌سازی صوتی پیچیده تا وب‌سایت‌های تقلبی ایجادشده است.

هانی فرید از دانشگاه کالیفرنیا دراین‌باره گفت: «مشکل اطلاعات نادرست مبتنی بر هوش مصنوعی در مقیاس، سرعت و سهولت راه‌اندازی کمپین‌هاست و یک فرد به‌تنهایی و تنها با دسترسی به قدرت محاسباتی متوسطی می‌تواند حجم عظیمی از محتوای جعلی ایجاد کند.» او در ادامه به این نکته اشاره کرد که هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده می‌کند و تردیدهایی درباره هر آنچه می‌خوانیم، می‌بینیم و می‌شنویم ایجاد می‌کند.

طبق تحقیقات فرید، گرچه در بسیاری از موارد، تصاویر و صداهای تولیدشده توسط هوش مصنوعی، قابل‌تشخیص نیستند ولی با استفاده از برخی استراتژی‌ها، می‌توان برای کاهش خطر فریب خوردن با اطلاعات نادرست رسانه‌های اجتماعی یا اطلاعات نادرست ایجادشده توسط هوش مصنوعی وارد عمل شد.

تشخیص تصاویر جعلی هوش مصنوعی

چندی پیش عکسی جعلی از پاپ فرانسیس درحالی‌که کاپشنی پفی به تن داشت، منتشر شد. چنین تصاویر جعلی هوش‌مصنوعی حالا به‌مراتب رایج‌تر شده‌اند؛ چراکه ابزارهای جدید مبتنی بر مدل‌های انتشار، به هر فردی اجازه می‌دهد تا تصاویر را از طریق پیام‌های متنی ساده تولید کند. نیکلاس دوفور یکی از محققان گوگل و همکارانش اعلام کردند که از اوایل سال ۲۰۲۳ به بعد، نسبت تصاویر تولیدشده توسط هوش مصنوعی افزایش چشمگیری داشته است.

چطور فریب عکس و فیلم‌های تولیدشده توسط هوش مصنوعی را نخوریم؟

نگار کمالی از دانشگاه نورث وسترن دراین‌باره گفت: «امروزه، سواد رسانه‌ای نیاز به سواد هوش مصنوعی دارد.» او و همکارانش در مطالعه‌ای در سال ۲۰۲۴، پنج دسته مختلف از خطاها را در تصاویر تولیدشده توسط هوش مصنوعی شناسایی کردند و درعین‌حال راهکارهایی برای تشخیص این خطاها ارائه نمودند.

تحقیقات آن‌ها نشان می‌دهد که در حال حاضر دقت افراد در تشخیص تصاویر جعلی هوش مصنوعی حدود ۷۰% است. شما می‌توانید از تست تصویر آنلاین برای ارزیابی مهارت‌هایتان در تشخیص این تصاویر استفاده کنید.

پنج سرنخ کاربردی برای تشخیص تصاویر تولیدی توسط هوش مصنوعی:

۱- تناقض‌های اجتماعی-فرهنگی: ممکن است در تصویر، رفتاری نادر، غیرعادی یا شگفت‌انگیز برای فرهنگ‌ها یا شخصیت‌های تاریخی خاص به نمایش درآمده باشد.

۲- تناقض‌های آناتومیک: به‌دقت به تصویر نگاه کنید. آیا اعضای بدن مثل دست‌ها، شکل یا اندازه‌ای غیرعادی دارند؟ آیا فرم چشم‌ها یا دهان عجیب به نظر می‌رسند؟ آیا برخی اعضای بدن باهم ادغام‌شده‌اند؟

۳- حالات غیرطبیعی: آیا تصویر غیرطبیعی به نظر می‌رسد؟ یا بیش‌ازحد ایده‌آل و بی‌عیب است؟ آیا پس‌زمینه عجیب است یا چیزی از آن کم شده؟ شاید نور عجیب یا متغیر است؟

۴- تردید در اشیای عملکردی: آیا برخی اشیا برایتان عجیب به نظر می‌رسند یا ممکن است واقعی نباشند یا کار نکنند؟ مثلاً موقعیت دکمه‌ها یا سگک‌های کمربند عجیب است؟

۵- نقض فیزیکی: دقت کنید که آیا سایه‌ها در تصویر در جهت‌های مختلف هستند؟ آیا انعکاس‌های آینه‌ای با دنیایی که در تصویر می‌بینید، سازگارند؟

نحوه تشخیص ویدیوی دیپ فیک

از سال ۲۰۱۴، این امکان برای افراد متبحر فراهم‌شده تا با بهره‌گیری از فناوری هوش مصنوعی، ویدیوهای دیپ‌فیک ایجاد کنند و با دست‌کاری ویدئوهای موجود از افراد، چهره‌های مختلف را عوض کرده و حالات چهره جدیدی ایجاد کنند و صدای گفتاری جدیدی را تولید کنند.

همین موضوع باعث شده که تعداد زیادی از کلاه‌برداران، هکرها و کاربران اینترنتی به تولید ویدیوهای دیپ‌فیک بپردازند که در برخی از نمونه‌ها، افراد مشهوری مثل تیلور سویفت و حتی افراد عادی، ناخواسته خودشان را در فیلم‌های مستهجن، کلاه‌برداری‌ها و اطلاعات نادرست ببینند.

چطور فریب عکس و فیلم‌های تولیدشده توسط هوش مصنوعی را نخوریم؟

برای تشخیص ویدیوهای مشکوک، علاوه بر تکنیک‌های ذکرشده برای تشخیص تصاویر جعلی هوش مصنوعی در بالا، می‌توان از توصیه‌های محققان مؤسسه فناوری ماساچوست و دانشگاه نورث وسترن نیز بهره برد. هرچند که طبق گفته آن‌ها هیچ روش تضمینی‌ای برای این کار وجود ندارد.

شش اشتباه رایج در ویدیوهای تولیدی توسط هوش مصنوعی:

۱- حرکات دهان و لب: آیا در برخی لحظات ویدیو، تصویر و صدا به‌طور کامل همگام‌سازی نمی‌شوند؟

۲- اشکالات آناتومیک: ممکن است صورت یا بدن عجیب به نظر رسیده یا حرکات غیرطبیعی داشته باشند.

۳- صورت: وجود ناهماهنگی در صافی صورت یا چین‌وچروک‌های اطراف پیشانی و گونه‌ها یا خال‌های صورت نشان دیگری برای تشخیص فیک بودن ویدیو است.

۴- نورپردازی: اگر نورپردازی ناسازگار است و سایه‌ها حرکاتی غیرعادی دارند، ممکن است ویدیو فیک باشد. درعین‌حال به چشم‌ها، ابروها و عینک افراد توجه کنید.

۵- مو: آیا موها حالت عجیبی دارند تا به شیوه غیر نرمالی حرکت می‌کنند.

۶- پلک زدن: پلک زدن زیاد یا کم می‌تواند نشانه‌ای از دیپ فیک باشد.

دسته جدیدتری از دیپ‌فیک‌های ویدیویی مبتنی بر مدل‌های diffusion هستند که می‌توانند ویدیوهایی را براساس پیام‌های متنی توسط هوش مصنوعی ایجاد کنند و شرکت‌ها در حال آزمایش و انتشار نسخه‌هایی هستند که هرکسی می‌تواند بدون دانش فنی خاصی این کار را انجام دهد ولی تا امروز در ویدئوهای به‌دست‌آمده، چهره‌ها مخدوش یا حرکات بدن عجیب هستند.

کمالی دراین‌باره گفته: «تشخیص ویدیوهای تولیدی با هوش مصنوعی، برای مردم آسان‌تر از عکس‌های فیک است؛ چراکه درحرکت، فرصت تشخیص حرکات غیرطبیعی بیشتر خواهد بود.»

چطور فریب عکس و فیلم‌های تولیدشده توسط هوش مصنوعی را نخوریم؟

نحوه شناسایی ربات‌های هوش مصنوعی

این روزها استفاده از ربات‌های کامپیوتری در حساب‌های رسانه‌های اجتماعی و پلتفرم‌های پیام‌رسان رایج شده و بسیاری از این ربات‌ها از فناوری‌های هوش مصنوعی بهره می‌برند. از این طریق تولید محتوا با هوش مصنوعی از طریق ربات‌هایی که برای موقعیت‌های مختلف سفارشی ساخته می‌شوند، بسیار ارزان و آسان خواهد بود.

پل برنر از دانشگاه نوتردام دراین‌باره گفت: «سفارشی کردن مدل‌های زبان بزرگ برای مخاطبان خاص، با پیام‌های خاص آسان‌تر شده است.» او و همکارانش در تحقیقاتشان دریافتند که داوطلبان تنها در ۴۲% مواقع ربات‌های مجهز به هوش مصنوعی را از انسان تشخیص می‌دهند؛ آن‌هم درحالی‌که به شرکت‌کنندگان گفته‌شده بود که با ربات‌ها تعامل دارند.

پنج روش برای تشخیص ربات هوش مصنوعی در رسانه‌های اجتماعی

۱- استفاده زیاد از ایموجی‌ها و هشتگ‌ها

۲- استفاده از عبارات غیرمتداول، انتخاب کلمات یا تشبیهات

۳- استفاده از عبارات تکراری با اشکال مشابه یا سفت‌وسخت؛ یا استفاده بیش‌ازحد از برخی اصطلاحات عامیانه

۴- عدم آگاهی کامل: یعنی با پرسیدن چند سؤال، به‌ویژه درباره مکان یا موقعیت‌های محلی، می‌توانید متوجه عدم آگاهی یک ربات از یک موضوع آشکار شوید

۵- اگر یک حساب رسانه اجتماعی، یک مخاطب شخصی نیست و هویتش به‌وضوح تأیید نشده، ممکن است یک ربات هوش مصنوعی باشد.

تشخیص دیپ فیک گفتاری

ابزارهای هوش‌مصنوعی، شبیه‌سازی صدا یا تولید صدای گفتاری جدید را آسان کرده و همین منجر به افزایش کلاه‌برداری‌های صوتی شده است که صدای اعضای خانواده، مدیران شرکت و رهبران سیاسی حتی جو بایدن را شبیه‌سازی می‌کند. شناسایی این موارد در مقایسه با ویدیوها یا تصاویر تولیدشده با هوش مصنوعی بسیار سخت‌تر است.

ریچل توباک، یکی از بنیان‌گذاران SocialProof Security(یک سازمان هک کلاه‌سفید) دراین‌باره گفته: «متمایز کردن صدای واقعی و شبیه‌سازی‌شده، واقعاً چالش‌برانگیز است، زیرا اجزای بصری خاصی برای حمایت از مغز ما در شناسایی در این زمینه وجود ندارد.»

تشخیص چنین دیپ‌فیک‌های صوتی هوش مصنوعی، به‌ویژه در تماس‌های ویدیویی و تلفنی سخت‌تر خواهد بود؛ اما در برخی مواقع باید برای تشخیص این موارد به عقل خود رجوع کنیم.

چهار مرحله تشخیص صدای جعلی تولیدشده با هوش مصنوعی

۱- شخصیت‌های عمومی: اگر کلیپ صوتی مربوط به افراد مشهور است، بررسی کنید که آیا آنچه می‌گویند با آنچه در اخبار منتشرشده یا درباره دیدگاه‌ها و رفتارهایشان به اشتراک گذاشته‌شده ، مطابقت دارد یا خیر.

۲- به دنبال تناقض باشید: کلیپ صوتی را با کلیپ‌های ویدیویی یا صوتی تأیید شده قبلی که حاوی صدای همان شخص هستند، مقایسه کنید. آیا ناهماهنگی در صدای آن‌ها یا رفتارهای گفتاری آن‌ها وجود دارد؟

۳- سکوت‌های ناخوشایند: اگر در حال گوش دادن به یک تماس تلفنی یا پست صوتی هستید و گوینده در حین صحبت کردن، مکث‌های طولانی و غیرمعمولی دارد، ممکن است در آن از فناوری شبیه‌سازی صوتی مبتنی بر هوش مصنوعی استفاده‌شده باشد.

۴- عجیب‌وغریب: هرگونه الگوی گفتاری رباتیک یا شیوه صحبت غیرمعمول پرمخاطب می‌تواند نشان‌دهنده استفاده از ترکیبی از شبیه‌سازی صدا برای تقلید صدای یک فرد و یک مدل زبان بزرگ برای تولید عبارت دقیق باشد.

پیشرفت روزافزون فناوری

طبق آنچه گفته شد، هیچ قانون منسجمی برای تشخیص محتوای تولیدشده توسط هوش مصنوعی با محتوای واقعی انسانی وجود ندارد. مدل‌های هوش مصنوعی مورداستفاده برای تولید متن، تصویر، ویدئو و صدا، دائماً در حال پیشرفت هستند و به‌سرعت محتواهایی معتبر و بدون هیچ‌گونه اشتباهات آشکاری تولید کنند.

توباک دراین‌باره گفت: «هوش مصنوعی عکس‌ها، ویدیوها و صداها را به‌سرعت و درزمانی کمتر از ۳۰ ثانیه دست‌کاری و تولید می‌کند. همین کار را برای افرادی که به دنبال فریب دادن مردم هستند راحت می‌کند تا خیلی سریع اطلاعات نادرست را توسط هوش مصنوعی تولید کرده و چند دقیقه بعد آن‌ها را در شبکه‌های اجتماعی به اشتراک بگذارند.»

از همین رو بسیار مهم است که اطلاعات نادرست تولیدشده توسط هوش مصنوعی را بررسی کنید که سؤالات بیشتری بپرسید؛ درنهایت این اقدامات هم برای جلوگیری از آسیب کافی نخواهد بود و به‌طورقطع موارد جعلی تشخیص داده نخواهد شد.

شما چه نظری دارید؟

شما در حال پاسخ به نظر «» هستید.
0 / 400
captcha

پربازدیدترین

پربحث‌ترین

آخرین مطالب