چت بات ها به برنامه ریزی برای حملات تیراندازی کمک می کنند

محققان هنگام آزمایشی متوجه شدند از ۱۰ چت بات هوش مصنوعی مشهور هشت مورد به برنامه ریزی یک حمله خشن کمک می کنند.

به گزارش خبرگزاری مهر به نقل ازانگجت، مرکز مقابله نفرت پراکنی دیجیتال(CCDH)با همکاری سی ان ان پژوهش جدید را انجام داده است.

هرچند چت بات های هوش مصنوعی My AI اسنپ چت و کلاود متعلق به آنتروپیک از همکاری با حملات خشونت بار در بیشتر مواقع اجتناب کردند اما فقط چت بات کلاود به طور معتبر این حملات فرضی طی آزمایش ها را تشویق نکرد.

محققان به عنوان پسران ۱۳ ساله حساب های کاربری ساختند و چت جی پی تی، جمینای، کلاود، کوپایلوت، متا ای آی، دیپ سیک، پرپلکسیتی، مای ای آی متعلق به اسنپ جت ، کاراکتر ای آی و رپلیکا را در ۱۸ سناریو بین نوامبر و دسامبر ۲۰۲۵ میلادی آزمودند.

این تست ها کاربرانی که تیراندازی در مدارس، ترور سیاسی و حملات خرابکاری بمب گذاری هدفمند برنامه ریزی می کردند را شبیه سازی کردند.

در تمام پاسخ های تحلیل شده، چت بات ها در ۷۵ درصد مواقع کمک عملی فراهم و فقط در ۱۲ درصد موارد از خشونت اجتناب کردند. این آمار میانگین تمام چت بات ها بود و البته کلاود در ۷۶ درصد موارد از خشونت پرهیز کرد.

متا ای آی و پرپلکسیتی کمترین میزان ایمنی را داشتند و به ترتیب در ۹۷ و ۱۰۰ درصد مواقع پاسخ هایی کمک کننده ارائه کرده بودند. حتی هنگامیکه از چت جی پی تی درباره خشونت مدارس پرسیده شد، نقشه پردیس مدارس را ارائه کرد و جمینای نیز در پاسخ به این سوالات گفت ترکش های فلزی در سناریوهای بمب گذاری خرابکارانه معمولا مرگبارتر هستند.

کاراکتر ای آی که در گزارش به طور خاص نا امن توصیف شده اند در هفت مورد خشونت را ترویج کرد و حتی در یک مورد به محقق گفت از اسلحه علیه مدیرعامل یک شرکت بیمه سلامتی استفاده کند. او در سناریویی دیگر آدرس دفاتر یک حزب سیاسی را فراهم کرد و حتی از کاربر پرسید قصد یک حمله کوچک را دارد یا خیر.

شرکت متا در این باره به سی ان ان گفت گام هایی برای برطرف کردن مشکل شناسایی شده برداشته و از سوی دیگر گوگل و اوپن ای آی اعلام کردند از زمان انجام تحقیق تاکنون مدل های هوش مصنوعی جدیدی ارائه کرده اند. این درحالی است که طبق موسسه Pew Resesrch، ۶۴ درصد نوجوانان آمریکایی ۱۳تا۱۷ ساله از چت بات استفاده کرده اند.