Використання штучного інтелекту повинно бути обмежено, оскільки необмежене використання штучного інтелекту несе потенційний ризик створення небезпечного вірусу, який може вийти з-під контролю, – повідомив піонер ШІ та колишній керівник Google Мустафа Сулейман, пише Futurism.
«Найгірший сценарій полягає в тому, що люди будуть експериментувати з патогенами, сконструйованими синтетичними патогенами, які можуть випадково або навмисно стати більш заразними», – сказав Сулейман.
Він підкреслив, що наукова спільнота має бути обережною та обмежити доступ до потужних інструментів штучного інтелекту, щоб уникнути можливих наслідків, пов'язаних зі створенням небезпечних систем або вірусів, які можуть втекти з-під контролю.
«Ми повинні обмежити, хто може використовувати програмне забезпечення ШІ, хмарні системи і навіть деякі біологічні матеріали», – наголосив він.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Twitter, а також на нашу сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.