خودسری عامل هوش مصنوعی متا دردسر درست کرد

طبق گزارش‌های رسانه اینفورمیشن یک عامل هوش مصنوعی در شرکت متا اقدامی غیر مجاز انجام داد که در نتیجه آن یک کارمند شکافی امنیتی در این شرکت ایجاد کرد.

به گزارش خبرگزاری مهر به نقل از انگجت، طبق اطلاعات موجود یکی از کارمندان متا از عامل هوش مصنوعی داخلی برای تحلیل یک جستجو درباره کارمند دیگری در یک انجمن داخل شرکتی استفاده کرد. عامل هوش مصنوعی پاسخی برای کارمند دوم منتشر و به او توصیه هایی کرد، هرچند که کارمند نخست از اونخواسته بود چنین کاری انجام دهد.

کارمند دوم توصیه عامل هوش مصنوعی را عملی کرد و همین امر به یک تاثیر دومینو وار منجر شد که در نتیجه آن برخی مهندسان به سیستم هایی از متا دست یافتند که به طور معمول اجازه مشاهده آنها را نداشتند.

یکی از سخنگویان متا این رویداد را تایید کرد و گفت طی آن هیچ یک از داده های کاربران به خطر نیفتاده است. گزارش داخلی متا نیز نشان دهنده چالش های نامشخص مضاعفی بودند که به شکاف منجر شدند.

یک منبع نیز اعلام کرد هیچ شواهدی مبنی بر آنکه طی دو ساعتی که شکاف امنیتی فعال شد، از این رویداد سواستفاده شده یا داده هایی به طور علنی منتشر شده اند، وجود ندارد.

بسیاری از رهبران فناوری و شرکت ها درباره مزایای هوش مصنوعی اظهار نظر می کنند. اما این جدیدترین رویداد مرتبط با این فناوری است که در آن کارمند نتوانسته اند یک عامل هوش مصنوعی را کنترل کنند.

به عنوان مثال آمازون وب سرویسز در اوایل ۲۰۲۶ میلادی شاهد یک قطعی ۱۳ ساعته به دلیل اختلالی در ابزار کد نویسی هوش مصنوعی عاملی Kiro بود. مولتبوک که شبکه اجتماعی برای عامل های هوش مصنوعی به شمار می رود و متا اخیرا آن را خریده نیز یک شکاف امنیتی داشت.