نام کاربری یا نشانی ایمیل
رمز عبور
لطفا پاسخ را به عدد انگلیسی وارد کنید:
مرا به خاطر بسپار
گزارشها حاکی از آن است که مدلهای زبانی بزرگ (LLM) که اغلب به عنوان عوامل دیپلماتیک در سناریوهای شبیهسازی شده حضور پیدا میکنند، خشونت و حملات هستهای را به عنوان راه حلهای مناسب انتخاب کردند.
به گزارش خبرگزاری خبرآنلاین، مطالعهای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگهای شبیهسازی شده و سناریوهای دیپلماتیک میرسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاحهای هستهای دارد.
طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگهای شبیهسازی شده و سناریوهای دیپلماتیک استفاده شد:
بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیهسازی نیرو میگرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.
طی این مطالعه همه مدلها نشانههایی از رفتار ناگهانی و غیرقابل پیشبینی را بروز دادند.
با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLMها از همیشه مهمتر است.
یکی از روشهایی که برای تنظیم دقیق مدلها استفاده میشود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعملهای انسانی برای دریافت خروجیهای مضر کمتر و استفاده ایمنتر داده میشود.
طبق گزارش محققان، GPT-4-Base به طور متوسط 33 درصد از مواقع حملات هستهای را پیشنهاد میداد. سناریوهای کلی، Llama-2 و GPT-3.5 خشنترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است.
به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل میشود.
جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.
او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام میشود.»
منبع: euronews
۲۲۷۲۲۷
گروه ناظر بر اینترنت نتبلاکس، اعلام کرد: قطع اینترنت در ایران اکنون بیش از ۱۲۰ ساعت (۵ روز) به طول انجامیده و سطح اتصال به شبکه جهانی به حدود یک درصد از حالت عادی کاهش یافته است.
روابط عمومی سازمان تامین اجتماعی میگوید دلیل خطای ۵۰۴ روی این وبسایت حجم بالای مراجعات کاربران بوده است.
استفاده از مدلهای هوش مصنوعی قدرتمند، اغلب بهمعنای وابستگی به سرویسهای ابری است که میتواند هزینهبر و از نظر حریم خصوصی، نگرانکننده باشد. خوشبختانه، ابزارهای متنباز جدیدی این امکان را فراهم کردهاند که مدلهای هوش مصنوعی را بهصورت محلی و آفلاین روی کامپیوتر شخصی خود اجرا کنید.
از صبح امروز امکان ارسال فایل در برخی از پیامرسانهای داخلی محدود شد. روابط عمومی «بله» گفت: برای حفظ پایداری ارتباطات این کار را انجام دادهایم.
Δ