Развитието на изкуствения интелект представлява заплаха за човечеството, каза философът и експерт по оценка на вероятността от глобални катастрофи Емил Торес пред The Washington Post. В бъдеще системата може да стане толкова напреднала, че да унищожи нашата цивилизация.
Проучване от 2014 г. показа, че вероятността за появата на изкуствен интелект, който не отстъпва на човешкия, до 2050 г. е 50%, до 2075 г. - 90%. Друго проучване на Global Catastrophe Risk Institute идентифицира най-малко 72 проекта по света, които имат за цел да развият изкуствения интелект като стъпало към изкуствения суперинтелект.
Според експерта суперинтелектът ще надмине човешките възможности в много отношения. Така той може да реши няколко проблема едновременно. От една страна, такава система може да намери начини да победи нелечими болести като рак и Алцхаймер и да почисти околната среда.
„Но аргументите, че суперинтелекта може да ни унищожи, също са силни“, каза Торес. Авторът на изследването отбеляза, че ако изкуственият интелект унищожи хората, това най-вероятно ще се случи случайно. Основната опасност от изкуствения суперинтелект е неговата непредсказуемост, тъй като когнитивните му структури могат да се различават значително от човешките.
През 2018 г. алгоритъмът печели компютърната игра Atari Q * bert, тъй като се възползва от вратичка, която „никога не е била открита от никой човешки играч. „Ако не можем да предвидим какво ще направят алгоритмите, които играят детски игри, как можем да сме сигурни, че машината е с много по-добри умения за решаване на проблеми от хората? “ каза Емил Торес.
Философът отбеляза, че суперинтелектът, програмиран да установи световен мир, може теоретично да хакне правителствени системи и да активира всички ядрени оръжия на планетата, като реши, че ако няма хора на планетата, тогава войните също ще спрат. Според него има безкраен брой катастрофално опасни начини, по които изкуственият интелект може да прибегне за решаване на глобални проблеми.
Изключването на излязла от контрол система също ще бъде много трудно, тъй като тя ще намери начин да се подсигури. Експертът призова да се забавят или дори да се спрат изследванията в областта на изкуствения интелект.
Коментари