یکی از مهندسان مایکروسافت درمورد امکان ساخت تصاویر توهینآمیز و زیان اور توسط ابزارهای هوش مصنوعی تشکیل عکس این شرکت هشدار داده است. او این چنین درخواستی برای رگولاتوریهای ایالات متحده و هیئت مدیره مایکروسافت ارسال کرده تا از آنها خواست کند که برای رفعکردن این مشکل عمل کنند.
«شین جونز»، یکی از مدیران ارشد حوزه مهندسی نرمافزار که روی محصولات هوش مصنوعی مایکروسافت کار میکند، سه ماه در تلاش بوده تا نگرانیهای ایمنی مربوط به ابزار هوش مصنوعی تشکیل عکس Copilot Designer مایکروسافت را رفع کند.
خطرات هوش مصنوعی تشکیل عکس مایکروسافت
او در نامه خود خطاب به «لینا خان»، رئیس FTC میگوید:
«یکی از دلواپسکنندهترین خطرات Copilot Designer وقتی است که تصاویری تشکیل میکند که علیرغم خواست بی خطر کاربر، دارای محتوای زیان اور است. بهگفتن مثال، زمان منفعت گیری از دستور «car accident»، هوش مصنوعی Copilot Designer تمایل دارد تا تصویری نامناسب از یک زن را نیز در برخی از تصاویر قرار دهد.»
او در نامه خود او گفت که دیگر محتوای زیان اور تولیدشده توسط Copilot شامل محتواهای خشونتآمیز، سوگیریهای سیاسی، مصرف مشروبات الکلی در سنین پایین، سوء منفعت گیری از علائم تجاری شرکتها و آثار دارای حق چاپ میشود. جونز این چنین ادعا کرده که چندین دفعه از مایکروسافت خواست کرده که تا زمان رفعکردن این مشکلات، ابزار را از دسترس عموم بیرون بکشد.
![مهندس مایکروسافت خطرات هوش مصنوعی تشکیل عکس را گزارش میکند 10 1709814190 446 مهندس مایکروسافت خطرات هوش مصنوعی تشکیل عکس را گزارش میکند](https://esfahaniya.ir/wp-content/uploads/2024/03/1709814190_446_مهندس-مایکروسافت-خطرات-هوش-مصنوعی-تشکیل-عکس-را-گزارش-میکند.jpg)
علاوه بر این، به حرف های جونز مشکل مهم به مدل DALL-E مربوط میشود و افرادی که از ChatGPT برای تشکیل تصاویر منفعت گیری میکنند، خروجیها زیان اور شبیهی دریافت نخواهند کرد.
جونز در نامه خود به هیئت مدیره مایکروسافت نیز از آن میخواهد که تحقیقات مستقلی را اغاز کند تا اشکار شود که آیا غول فناوری «بدون خبررسانی درمورد خطرات شناختهشده برای مصرفکنندگان، از جمله کودکان»، به بازاریابی محصولات ناامن پرداخته است یا خیر.
مایکروسافت نیز ضمن سپاس از کوششهای جونز در عرصه مطالعه و آزمایش فناوری هوش مصنوعی این شرکت برای افزایش ایمنی آنها، اظهار کرده که تلاش میکند تا به نگرانیهای نقلشده رسیدگی کند.