فیسبوک ، هوش مصنوعی با قابلیت فریبدادن سیستم تشخیص چهره توسعه داد
فیسبوک ، هوش مصنوعی با قابلیت فریبدادن سیستم تشخیص چهره توسعه داد
فیسبوک درگیر یک پروندهی حقوقی است که فناوریهای تشخیص چهرهی آنها را هدف قرار میدهد. البته تیم تحقیقات هوش مصنوعی شرکت، تلاش میکند تا فناوریهایی با هدف مقابله با رویکردهای مخرب توسعه دهد؛ رویکردهایی که خود آنها متهم به اتخاذشان هستند. طبق گزارش رسانهی VentureBeat، تیم تحقیقات هوش مصنوعی فیسبوک (موسوم به FAIR) سیستمی برای جلوگیری از شناسایی افراد توسعه دادند که در محتوای ویدئویی و حتی ویدئوی زنده هم کاربرد خواهد داشت. فناوری جدید، با استفاده از یادگیری ماشین و تغییر برخی از خصوصیات کلیدی چهره بهصورت زنده، سیستمهای تشخیص چهره را فریب میدهد که درنهایت منجر به تشخیص اشتباه سوژه میشود.
فناوری ایجاد اختلال در تشخیص هویت در گذشته هم وجود داشت. بهعنوان مثال شرکتی بهنام D-ID با حوزهی فعالیت هوش مصنوعی و حریم خصوصی، راهکارهای مشابهی را برای تصاویر ثابت ارائه میکند. بهعلاوه ابزارهای فیزیکی متعددی وجود دارند که کاربر میتواند با پوشیدن آنها، هوش مصنوعی را در تشخیص هویت و چهره دچار اختلال کند. این ابزارها از نقاظ ضعفی استفاده میکنند که در جریان آموزش هوش مصنوعی ایجاد میشود. بهعنوان مثال عینکهایی وجود دارند که کاربر با استفاده از آنها، چهرهی خود را در نظر هوش مصنوعی تشخیص چهره کاملا تغییر میدهد.
تغییر در تشخیص هویت تصاویر ثابت، یعنی تصویر ضبطشده توسط دوربینهای امنیتی یا ابزارهای دیگر، بهکمک راهکارهای نرمافزاری و سختافزاری تغییر کند. در راهکار دوم نیز، باید حتما از ابزاری اضافه استفاده شود تا هوش مصنوعی توانایی تشخیص چهره را نداشته باشد. تحقیق فیسبوک، فناوری را معرفی کرده که همین رویکرد سختافزاری را بهصورت زنده یا در ویدئوهای ضبطشده پیادهسازی میکند.
زیرمجموعهی تحقیقاتی FAIR ادعا میکند که راهکار جدید، اولین نمونه در صنعت است. بهعلاوه محققان میگویند با استفاده از آن میتوان پیچیدهترین سیستمهای تشخیص چهره را فریب داد. در بخشی از مقالهی منتشرشده پیرامون نتایج تحقیقات میخوانیم:
تشخیص چهره میتوتند منجر به ازبینرفتن مفهوم حریم خصوصی شود. بهعلاوه فناوری تغییر چهره نیز امکان تولید ویدئوهای گمراهکننده را فراهم میکند. رخدادهای کنونی جهان مرتبط با پیشرفتها و سوءاستفادهها از فناوری تشخیص چهره، لزوم درک روشهایی برای مقابله با راهکارهای تغییر هویت را دوچندان میکند. راهکار ما، تنها مدل موجود و کاربردی برای محتوای ویدئویی است که ویدئوی زنده را هم با کیفیتی بسیار بیشتر از روشهای کنونی پوشش میدهد.
فیسبوک ظاهرا قصد ندارد که از این فناوری در هیچیک از محصولات تجاری خود استفاده کند. ازطرفی، تحقیق اخیر احتمالا روی ابزارهای آتی تأثیر میگذارد که برای حفظ حریم خصوصی توسعه مییابند. بهعلاوه همانطور که در متن تحقیق به «ویدئوهای گمراهکننده» اشاره میشود، میتوان با استفاده از دستاورد اخیر، سوءاستفاده از چهرهی افراد در ویدئوهای دیپ فیک را متوقف کرد.
صنعت هوش مصنوعی امروز تلاش میکند تا راههایی برای مبارزه با توزیع دیپ فیک و ابزارهای پیچیدهی تولید آنها داشته باشد. دستاورد جدید فیسبوک، ظاهرا یکی از روشهای کاربردی در این نبرد خواهد بود. بههرحال قانونگذاران و شرکتهای فناوری تلاش میکنند تا روشهای بیشتری همچون نرمافزارهای شناسایی دیپ فیک کشف کنند. دراینمیان چارچوبهای تنظیمگری قانونی برای کنترل توزیع ویدئوها، تصاویر و محتوای صوتی تقلبی، اهمیت بالایی دارند.
تشخیص چهره، مسئلهی دیگری است که تحقیق جدید FAIR به آن میپردازد. تشخیص چهره نیز امروز چارچوب تنظیمگری مشخصی در جهان ندارد و قانونگذاران، فعالان دانشگاهی و فعلان حقوق بشر، آن را چالشی بزرگ میدانند. آنها نگران هستند که پیادهسازی فناوری مذکور، بدون هیچ نظارت و تنظیمگری خاصی از قانونگذاران، دولتها و شرکتها، به کار گرفته میشود. بههرحال FAIR امید دارد که فناوری جدید، راهی برای کاهش کاربردهای غلط فناوری تشخیص چهره ارائه کند.
منبع:/www.zoomit.ir