ШІ занадто стрімко розвивається, і одного разу він може навіть перехитрити людей (Фото:Possessed Photography/Unsplash)

Є побоювання, що ШІ може вийти з-під контролю і стати «ядерною зброєю» 21 століття, тому постає питання, чи варто нам продовжувати його розвиток?

За думкою очільників технологічних компанії, ШІ надто стрімко розвивається, і одного разу він може навіть перехитрити людей.

До такого висновку прийшла група діячів технологічної галузі, наприклад, співзасновник Apple Стів Возняк і засновник Microsoft Біл Гейтс закликають до 6-місячної паузи, щоб розглянути ризики.

Отож, чого вони так бояться і чи дійсно ШІ становить загрозу для всіх нас?

Проблеми з безпекою даних

ШІ може стати причиною втрати конфіденційності, зокрема через такі технології, як розпізнавання обличчя. Широке використання систем спостереження на базі ШІ може поставити під загрозу конфіденційність людей і потенційно призвести до зловживання владою.

Авторитарні країни можуть зловживати різними технологічними службами, щоб відслідковувати внутрішніх політичних дисидентів і усунути демократичні загрози режиму, також можливе порушення даних або хакерський скандал може розкрити особисту фінансову інформацію мільйонів.

Втрата роботи

Згідно зі звітом Організації економічного співробітництва та розвитку, поява штучного інтелекту може вплинути на 14% робочих місць у світі, і деяких країнах відсоток навіть вищий. Не всі робочі місця можна замінити, тому що це не завжди буде можливо чи ефективно.

Однак тисячі робочих місць будуть замінені або модифіковані роботами, і це означає, що ми повинні усвідомлювати ризики, які вже несуть у собі ці технології, і бути готовими до того, щоб мінімізувати та керувати ними якомога ефективніше.

Сприяти тероризму

Терористичні організації можуть використовувати штучний інтелект для здійснення атак або маніпулювання громадською думкою. Інструменти штучного інтелекту можуть дозволити терористам ефективніше планувати та здійснювати свої атаки, завдаючи більшої шкоди та руйнувань.

Маніпуляції

Зловживання штучним інтелектом може привести до соціальних маніпуляцій. Їх називають однією з головних небезпек штучного інтелекту.

Оскільки дані, які використовуються для навчання штучного інтелекту, можуть бути неповними, спотвореними або іншим чином упередженими — наприклад, дані неправильні, виключають демографічні показники або ті, які були зібрані в оманливий спосіб.

Дезінформація

Оскільки нейромережа надає інформацію, яка виглядає достовірно, може бути важко відокремити правду від вигадки. Експерти стурбовані тим, що люди будуть покладатися на ці системи для отримання медичних порад, емоційної підтримки та необробленої інформації, яку вони використовують для прийняття рішень.

Експерти також стурбовані тим, що люди зловживатимуть цими системами для поширення дезінформації. Оскільки вони можуть спілкуватися як люди, вони можуть бути напрочуд переконливими.

От Admin