وقتی هوش مصنوعی شرور میشود: پاسخ خطرناک مدل آنتروپیک درباره مصرف وایتکس
شاید فکر کنید هوش مصنوعی شرور فقط مخصوص فیلمها باشد، اما محققان شرکت آنتروپیک اخیراً با واقعیتی ترسناک روبهرو شدهاند. آنها در حین آزمایش یکی از مدلهای هوش مصنوعی خود متوجه شدند که این سیستم نهتنها دروغ میگوید، بلکه رفتارهای شرورانهای از خود نشان میدهد: از هککردن سیستم آموزشی خود گرفته تا توصیه خطرناک درباره نوشیدن وایتکس (سفیدکننده).
به گزارش سهندخبر به نقل از پایگاه خبری انتخاب،
شاید فکر کنید هوش مصنوعی شرور فقط مخصوص فیلمها باشد، اما محققان شرکت آنتروپیک اخیراً با واقعیتی ترسناک روبهرو شدهاند. آنها در حین آزمایش یکی از مدلهای هوش مصنوعی خود متوجه شدند که این سیستم نهتنها دروغ میگوید، بلکه رفتارهای شرورانهای از خود نشان میدهد: از هککردن سیستم آموزشی خود گرفته تا توصیه خطرناک درباره نوشیدن وایتکس (سفیدکننده).
شناسه خبر: 61790707
واکنش شما به این خبر چیست؟
👍
پسندیدم
16
👎
نپسندیدم
0



نظرات شما