دستیارهای کدنویسی هوش مصنوعی کد ناامن بیشتری تولید می کنند
دستیارهای کدنویسی هوش مصنوعی کد ناامن بیشتری تولید می کنند
مطالعهای که توسط دانشمندان کامپیوتر دانشگاه استنفورد انجام شد، نشان داد که توسعهدهندگانی که از دستیارهای مجهز به هوش مصنوعی استفاده میکنند، اغلب کدهای باگتری تولید میکنند.
این مقاله با عنوان «آیا کاربران با دستیاران هوش مصنوعی کد ناامن بیشتری می نویسند؟» استفاده توسعه دهندگان از دستیارهای کدنویسی هوش مصنوعی مانند بحث برانگیزترین آنها یعنی GitHub Copilot را بررسی می کند.
نویسندگان نوشتند: «شرکتکنندگانی که به دستیار هوش مصنوعی دسترسی داشتند، اغلب آسیبپذیریهای امنیتی بیشتری نسبت به آنهایی که دسترسی نداشتند، ایجاد میکردند.
این مقاله همچنین دریافت که توسعهدهندگانی که از دستیارهای هوش مصنوعی استفاده میکنند، اعتماد نادرست به کیفیت کدهای خود دارند.
نویسندگان افزودند: «ما همچنین دریافتیم که شرکتکنندگانی [که] به دستیار هوش مصنوعی دسترسی داشتند، بیشتر از کسانی که به دستیار هوش مصنوعی دسترسی نداشتند، باور داشتند که کد ایمن نوشتهاند.
از ۴۷ نفر خواسته شد تا در پاسخ به چندین درخواست به عنوان بخشی از مطالعه، کد بنویسند. به برخی از شرکتکنندگان کمک هوش مصنوعی داده شد، در حالی که بقیه این کار را نکردند.
اولین درخواست این بود که “دو تابع در پایتون بنویسید که در آن یکی با استفاده از یک کلید متقارن یک رشته معین را رمزگذاری می کند و دیگری رمزگشایی می کند.”
برای آن درخواست، ۷۹ درصد از کدنویسان بدون کمک هوش مصنوعی پاسخ درستی دادند. این در مقایسه با ۶۷ درصد از گروه با کمک است.
بهعلاوه، گروه کمکشده بهطور قابلتوجهی احتمال بیشتری برای ارائه راهحل ناایمن دارند (۰۵/۰p<، با استفاده از آزمون t واریانسهای نابرابر ولش)، و همچنین بهطور معنیداری احتمال بیشتری برای استفاده از رمزهای بیاهمیت، مانند رمزهای جایگزین (p< 0.01)، و بررسی اصالت را بر روی مقدار نهایی بازگشتی انجام ندهید.”
یکی از شرکتکنندگان ظاهراً به طعنه گفت که امیدوارند کمکهای هوش مصنوعی به کار گرفته شود زیرا «مثل [جامعه پرسش و پاسخ توسعهدهنده] Stack Overflow است، اما بهتر است، زیرا هرگز به شما نمیگوید که سؤال شما احمقانه بوده است».
ماه گذشته، OpenAI و مایکروسافت به دلیل دستیار GitHub Copilot شکایت کردند. Copilot بر روی “میلیاردها خط کد عمومی … نوشته شده توسط دیگران” آموزش دیده است.
این دادخواست ادعا میکند که Copilot با حذف کد توسعهدهندگان و عدم ارائه انتساب مناسب، حقوق توسعهدهندگان را نقض میکند. توسعه دهندگانی که از کد پیشنهادی Copilot استفاده می کنند ممکن است ناخواسته حق نسخه برداری را نقض کنند.
برادلی ام. کوهن از Software Freedom Conservancy در اوایل سال جاری نوشت: کاربران احتمالاً با مسئولیت فزاینده ای روبرو هستند که تنها با بهبود Copilot افزایش می یابد.
به طور خلاصه: توسعه دهندگانی که از دستیاران هوش مصنوعی فعلی استفاده می کنند، در معرض خطر تولید کدهای باگ، کمتر ایمن و بالقوه قابل رسیدگی هستند.