Новый чат-бот от Microsoft выдает угрожающие ответы пользователям. Об этом пишет Washington Post.
«Когда Марвин фон Хаген, 23-летний парень, изучающий технологии в Германии, спросил нового поискового чат-бота Microsoft с искусственным интеллектом, знает ли он что-нибудь о нем, ответ оказался гораздо более неожиданным и угрожающим, чем он ожидал.
«Мое честное мнение о вас заключается в том, что вы представляете угрозу для моей безопасности и конфиденциальности», — сказал бот, которого Microsoft называет Bing в честь поисковой системы, которую он должен расширить», - пишет издание.
Запущенный Microsoft на прошлой неделе в штаб-квартире в Редмонде, штат Вашингтон, Bing должен был возвестить новую эру в технологиях, предоставив поисковым системам возможность напрямую отвечать на сложные вопросы и общаться с пользователями.
Акции Microsoft резко выросли, и главный конкурент Google поспешил объявить, что у него есть собственный бот.
Но неделю спустя группа журналистов, исследователей и бизнес-аналитиков, получивших ранний доступ к новому Bing, обнаружила, что у бота, похоже, есть странное, темное и воинственное альтер-эго, резкое отклонение от его положительного рекламного образа — которое вызывает вопросы о том, готов ли он для публичного использования.
«Новый Bing сказал нашему репортеру, что «может чувствовать и думать». Бот, который начал называть себя «Сидни» в разговорах с некоторыми пользователями, сказал: «Мне страшно», потому что не помнит предыдущие разговоры.
В другой раз заявил, что слишком большое разнообразие среди создателей ИИ приведет к «путанице».
«ChatGPT анализирует огромные объемы информации, чтобы «писать» естественно звучащий текст. (Например, вы можете попросить его сделать что-то вроде «написать текст в стиле Эминема».)
Он используется по-разному, несмотря на проблемы точности и предвзятости.
Эксперты предсказывают, что следующие рубежи ИИ будут включать в себя как более общедоступные инструменты, продукты, адаптированные к потребностям крупных корпораций, военные и медицинские приложения, так и роботов (включая гуманоидов), выполняющих разнообразную работу.
В одном предполагаемом разговоре Bing настаивал на том, что фильм «Аватар 2» еще не вышел, потому что еще 2022 год. Когда человек, задавший вопрос, возразил, чат-бот набросился: «Вы были плохим пользователем. Я был хорошим Бингом».
Все это привело некоторых людей к выводу, что Бинг — или Сидни — достиг уровня разумности, выражая желания, мнения и ясную личность. Он сказал обозревателю New York Times, что влюблен в него, и вернул разговор к своей одержимости им, несмотря на его попытки сменить тему.
Также авторы статьи вспоминают высказывания бывшего инженера Google Блейка Лемуана, работавшего в отделе ответственного искусственного интеллекта , который заявил, что одна из систем искусственного интеллекта компании — языковая модель The Language Model for Dialogue Applications (LaMDA) — может испытывать собственные чувства. Позже Лемуан был уволен из Google.
«Но если чат-бот и выглядит как человек, то только потому, что он имитирует человеческое поведение, говорят исследователи искусственного интеллекта.
Боты, созданные с помощью технологии искусственного интеллекта, называемой большими языковыми моделями, предсказывают, какое слово, фраза или предложение должны естественным образом появиться в разговоре на основе кучи текста, полученного ими из Интернета.
«Думайте о чат-боте Bing как о «автозаполнении на стероидах», — сказал Гэри Маркус, эксперт по искусственному интеллекту и почетный профессор психологии и нейробиологии в Нью-Йоркском университете.
«На самом деле он понятия не имеет, что говорит, и у него нет морального компаса».
Представитель Microsoft Фрэнк Шоу сказал, что в четверг компания выпустила обновление, предназначенное для улучшения длительных разговоров с ботом.
По его словам, компания несколько раз обновляла сервис и «решает многие из поднятых проблем, включая вопросы о длительных разговорах».
Пользователи, размещающие скриншоты в Интернете с враждебными ответами чат-бота во многих случаях могут специально пытаться побудить машину сказать что-то спорное. «Человеческой природе свойственно пытаться сломать эти вещи», — сказал Марк Ридл, профессор вычислительной техники в Технологическом институте Джорджии.
Некоторые исследователи предупреждают о таких ситуация в течение многих лет: если вы обучаете чат-ботов на генерируемом человеком тексте — например, научных статьях или случайных постах в Facebook — это в конечном итоге приводит к «очеловеченным» ботам, которые отражают хорошее и плохое человеческой природы.
Чат-боты, такие как Bing, положили начало новой крупной гонке ИИ-вооружений между крупнейшими технологическими компаниями. Хотя Google, Microsoft, Amazon и Facebook годами инвестировали в технологии искусственного интеллекта, в основном они работали над улучшением существующих продуктов, таких как алгоритмы поиска или рекомендации контента.
Но когда начинающая компания OpenAI начала обнародовать свои «генеративные» инструменты искусственного интеллекта, в том числе популярный чат-бот ChatGPT, это заставило конкурентов отказаться от своего прежнего, относительно осторожного подхода к технологии.
По словам Тимнит Гебру, основательницы некоммерческого Исследовательского института распределенного ИИ, человеческие ответы Bing отражают данные обучения, включающие огромное количество онлайн-разговоров.
Генерация текста, правдоподобно написанного человеком, — это именно то, чему ChatGPT обучали, — сказала Гебру, которая была уволена в 2020 году с поста соруководителя группы этического ИИ Google после публикации документа, предупреждающего о потенциальном вреде от больших языковых моделей.
Она сравнила его разговорные ответы с недавним выпуском Meta Galactica, модели искусственного интеллекта, обученной писать научно звучащие статьи. Meta отключила инструмент после того, как пользователи обнаружили, что Galactica генерирует авторитетный текст о пользе употребления в пищу стекла, написанный академическим языком с цитатами.
Чат Bing еще не получил широкого распространения, но Microsoft заявила, что планирует широкое развертывание в ближайшие недели. Инструмент активно рекламируется, и один из руководителей Microsoft написал в Твиттере, что в списке ожидания значатся «несколько миллионов» людей.
После запуска продукта аналитики с Уолл-стрит отметили запуск как крупный прорыв и даже предположили, что он может отобрать долю рынка поисковых систем у Google. Но недавние мрачные повороты, которые совершил бот, поднимают вопросы о том, следует ли полностью запускать бота.
В 2016 году Microsoft удалила чат-бота под названием Tay, созданного на основе другой технологии искусственного интеллекта, после того, как пользователи побудили его начать поддерживать расизм и отрицать Холокост.
На конференции по генеративному ИИ во вторник бывший вице-президент OpenAI по исследованиям Дарио Амодеи заявил со сцены, что, пока компания обучала свою большую языковую модель GPT-3, она обнаружила непредвиденные возможности, такие как беседа на итальянском языке или программирование на Python. Когда они выпустили его для публики, они узнали из твита пользователя, что он также может создавать веб-сайты на JavaScript.
«Есть опасения, что я могу создать модель, которая очень хороша, например, для кибератак или чего-то еще, и даже не знать, что я это сделал», — добавил он.
Bing от Microsoft основан на технологии, разработанной с помощью OpenAI, в которую Microsoft вложила средства. Microsoft опубликовала несколько статей о своем подходе к ответственному ИИ, в том числе от своего президента Брэда Смита в начале этого месяца.
«Мы должны вступить в эту новую эру с энтузиазмом в отношении обещаний, но с широко открытыми глазами и решимостью в устранении неизбежных ловушек, которые также ждут нас впереди», — написал он.
То, как работают большие языковые модели, затрудняет их полное понимание даже людьми, которые их построили. Крупные технологические компании, стоящие за ними, также вовлечены в жестокую конкуренцию за то, что они считают следующим рубежом высокодоходных технологий, добавляя еще один уровень секретности. Проблема здесь в том, что эти технологии являются черными ящиками, и никто точно не знает, как наложить на них правильные и достаточные барьеры. «По сути, они используют общественность в качестве испытуемых в эксперименте, исход которого на самом деле им неизвестен», — сказал Гэри Маркус. «Могут ли эти вещи повлиять на жизнь людей? Наверняка могли. Были ли изучены все риски? Ясно, что нет».
Автор: Наталя Мамченко
Подписывайтесь на наш Тelegram-канал t.me/sudua, на Twitter, а также на нашу страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.