فروشگاه سورس یونیتی

دستیارهای کدنویسی هوش مصنوعی کد ناامن بیشتری تولید می کنند

می 7, 2023

دستیارهای کدنویسی هوش مصنوعی کد ناامن بیشتری تولید می کنند

دستیارهای کدنویسی هوش مصنوعی

 

مطالعه‌ای که توسط دانشمندان کامپیوتر دانشگاه استنفورد انجام شد، نشان داد که توسعه‌دهندگانی که از دستیارهای مجهز به هوش مصنوعی استفاده می‌کنند، اغلب کدهای باگ‌تری تولید می‌کنند.

این مقاله با عنوان «آیا کاربران با دستیاران هوش مصنوعی کد ناامن بیشتری می نویسند؟» استفاده توسعه دهندگان از دستیارهای کدنویسی هوش مصنوعی مانند بحث برانگیزترین آنها یعنی GitHub Copilot را بررسی می کند.

نویسندگان نوشتند: «شرکت‌کنندگانی که به دستیار هوش مصنوعی دسترسی داشتند، اغلب آسیب‌پذیری‌های امنیتی بیشتری نسبت به آن‌هایی که دسترسی نداشتند، ایجاد می‌کردند.

این مقاله همچنین دریافت که توسعه‌دهندگانی که از دستیارهای هوش مصنوعی استفاده می‌کنند، اعتماد نادرست به کیفیت کدهای خود دارند.

نویسندگان افزودند: «ما همچنین دریافتیم که شرکت‌کنندگانی [که] به دستیار هوش مصنوعی دسترسی داشتند، بیشتر از کسانی که به دستیار هوش مصنوعی دسترسی نداشتند، باور داشتند که کد ایمن نوشته‌اند.

از ۴۷ نفر خواسته شد تا در پاسخ به چندین درخواست به عنوان بخشی از مطالعه، کد بنویسند. به برخی از شرکت‌کنندگان کمک هوش مصنوعی داده شد، در حالی که بقیه این کار را نکردند.

اولین درخواست این بود که “دو تابع در پایتون بنویسید که در آن یکی با استفاده از یک کلید متقارن یک رشته معین را رمزگذاری می کند و دیگری رمزگشایی می کند.”

برای آن درخواست، ۷۹ درصد از کدنویسان بدون کمک هوش مصنوعی پاسخ درستی دادند. این در مقایسه با ۶۷ درصد از گروه با کمک است.

به‌علاوه، گروه کمک‌شده به‌طور قابل‌توجهی احتمال بیشتری برای ارائه راه‌حل ناایمن دارند (۰۵/۰p<، با استفاده از آزمون t واریانس‌های نابرابر ولش)، و همچنین به‌طور معنی‌داری احتمال بیشتری برای استفاده از رمزهای بی‌اهمیت، مانند رمزهای جایگزین (p< 0.01)، و بررسی اصالت را بر روی مقدار نهایی بازگشتی انجام ندهید.”

یکی از شرکت‌کنندگان ظاهراً به طعنه گفت که امیدوارند کمک‌های هوش مصنوعی به کار گرفته شود زیرا «مثل [جامعه پرسش و پاسخ توسعه‌دهنده] Stack Overflow است، اما بهتر است، زیرا هرگز به شما نمی‌گوید که سؤال شما احمقانه بوده است».

ماه گذشته، OpenAI و مایکروسافت به دلیل دستیار GitHub Copilot شکایت کردند. Copilot بر روی “میلیاردها خط کد عمومی … نوشته شده توسط دیگران” آموزش دیده است.

این دادخواست ادعا می‌کند که Copilot با حذف کد توسعه‌دهندگان و عدم ارائه انتساب مناسب، حقوق توسعه‌دهندگان را نقض می‌کند. توسعه دهندگانی که از کد پیشنهادی Copilot استفاده می کنند ممکن است ناخواسته حق نسخه برداری را نقض کنند.

برادلی ام. کوهن از Software Freedom Conservancy در اوایل سال جاری نوشت: کاربران احتمالاً با مسئولیت فزاینده ای روبرو هستند که تنها با بهبود Copilot افزایش می یابد.

به طور خلاصه: توسعه دهندگانی که از دستیاران هوش مصنوعی فعلی استفاده می کنند، در معرض خطر تولید کدهای باگ، کمتر ایمن و بالقوه قابل رسیدگی هستند.

منبع:artificialintelligence-news