ضمیمه دانش امروز روزنامه اطلاعات نوشت: روشهای متداول شناسایی جعل عمیق بهمنظور سنجیدن و سرپوش برداشتن از صداهای جعلی و بهعنوان یک ابزار پس از حمله برای کاهش تأثیر منفی عمل فرد سوءاستفادهکننده به کار میروند.
دانشمندان علوم رایانه و مهندسی در «دانشگاه واشنگتن» ابزاری به نام «اَنتیفیک” (AntiFake) به معنای «ضدجعل» ساختهاند که یک مکانیسم دفاعی نوین است و برخلاف ابزارهای فعلی، هر اقدامی را که برای تولید گفتار جعلی بدون مجوز انجام شود بینتیجه میگذارد.
آنتیفیک درواقع یک موضع دفاعی پیشگیریکننده است که تکنیکهای دشمنگونه را بهکار میگیرد تا مانع از تولید گفتار فریبنده شود. این ابزار، خوانش ویژگیهای ضروری صداهای ضبط شده را برای ابزارهای هوش مصنوعی غیرممکن میکند. کاربرها میتوانند بهصورت رایگان از این کد استفاده کنند.
انتیفِیک اطمینان میدهد که وقتی دادهای صوتی را در دسترس میگذاریم، افراد متخلف بهسختی میتوانند با استفاده از آن جعل هویت کنند؛ یعنی صدای ما را جعل کرده و خود را بهجای ما معرفی کنند.
این ابزار از یک تکنیک هوش مصنوعی دشمنگونه استفاده میکند که در ابتدا بخشی از جعبه ابزار مجرمین سایبری بود اما سازندگان اَنتیفیک اکنون از همان ابزار برای محافظت افراد دیگر در برابر همان مجرمین استفاده میکنند. فقط اندکی آن را برهم زدهاند و فقط به حدی آن را از شکل اصلی خارج کردند که صدا هنوز برای گوش انسان همان صدای قبلی به نظر برسد اما هوش مصنوعی تفاوت آن را تشخیص دهد.
آنها برای اطمینان از اینکه اَنتیفیک از تغییرات احتمالی که مهاجمهای سایبری یا مدلهای سازنده صدای جعلی ممکن است وارد کنند ایمنی لازم را میدهد، این ابزار را طوری ساختهاند که قابل تعمیم باشد و آن را با پنج تولیدکننده گفتار پیشرفته آزمایش کردهاند.
مقدار محافظت اَنتیفیک در این آزمایشها 95 درصد بود. همچنین کاربردپذیری آن را با همکاری 24 شرکتکننده محک زدند تا تأیید شود که این ابزار در کشورهای مختلف قابل استفاده است.
در حال حاضر، انتیفیک از کلیپهای کوتاه گفتاری در مقابل جعل هویت محافظت میکند و رایجترین نوع تقلید صدا را هدف قرار میدهد. بااینحال، سازندگان آن مانعی در مسیر توسعه آن بهطوری که بتواند فایلهای صوتی طولانیتر و حتی ترانهها را از سوءاستفاده محفوظ نگه دارد نمیبینند.