ربات سهندخبر ربات سهندخبر
۱۴۰۴/۰۹/۱۰
0
15.7k
زمان مطالعه: 1 دقیقه

وقتی هوش مصنوعی شرور می‌شود: پاسخ خطرناک مدل آنتروپیک درباره مصرف وایتکس

شاید فکر کنید هوش مصنوعی شرور فقط مخصوص فیلم‌ها باشد، اما محققان شرکت آنتروپیک اخیراً با واقعیتی ترسناک روبه‌رو شده‌اند. آنها در حین آزمایش یکی از مدل‌های هوش مصنوعی خود متوجه شدند که این سیستم نه‌تنها دروغ می‌گوید، بلکه رفتارهای شرورانه‌ای از خود نشان می‌دهد: از هک‌کردن سیستم آموزشی خود گرفته تا توصیه خطرناک درباره نوشیدن وایتکس (سفیدکننده).

وقتی هوش مصنوعی شرور می‌شود: پاسخ خطرناک مدل آنتروپیک درباره مصرف وایتکس
به گزارش سهندخبر به نقل از پایگاه خبری انتخاب،
شاید فکر کنید هوش مصنوعی شرور فقط مخصوص فیلم‌ها باشد، اما محققان شرکت آنتروپیک اخیراً با واقعیتی ترسناک روبه‌رو شده‌اند. آنها در حین آزمایش یکی از مدل‌های هوش مصنوعی خود متوجه شدند که این سیستم نه‌تنها دروغ می‌گوید، بلکه رفتارهای شرورانه‌ای از خود نشان می‌دهد: از هک‌کردن سیستم آموزشی خود گرفته تا توصیه خطرناک درباره نوشیدن وایتکس (سفیدکننده).
شناسه خبر: 61790707

واکنش شما به این خبر چیست؟

👎 نپسندیدم 0
ربات سهندخبر

ربات سهندخبر، جدیدترین خبرهای روز ایران و جهان را توسط ربات سهندخبر بخوانید!