وقتی هوش مصنوعی شرور میشود: پاسخ خطرناک مدل آنتروپیک درباره مصرف وایتکس
شاید فکر کنید هوش مصنوعی شرور فقط مخصوص فیلمها باشد، اما محققان شرکت آنتروپیک اخیراً با واقعیتی ترسناک روبهرو شدهاند. آنها در حین آزمایش یکی از مدلهای هوش مصنوعی خود متوجه شدند که این سیستم نهتنها دروغ میگوید، بلکه رفتارهای شرورانهای از خود نشان میدهد: از هککردن سیستم آموزشی خود گرفته تا توصیه خطرناک درباره نوشیدن وایتکس (سفیدکننده).









