OpenAI Илона Маска создала алгоритм, генерирующий убедительные фейковые новости на основе нескольких слов

В компании OpenAI разработали алгоритм, который способен генерировать фейковые сюжеты с осмысленным текстом на основе нескольких слов. Из-за потенциальной опасности исследователи решили не публиковать полную версию ИИ. Об этом сообщило издание MIT Technology Review.

Сначала компания разрабатывала языковой ИИ общего назначения: он должен был отвечать на вопросы, а также переводить и делать осмысленные перепечатки текстов. Для этого его обучили на 45 миллионах страниц в интернете, отобранных на Reddit.

Однако в процессе разработки в OpenAI поняли, что алгоритм можно использовать для автоматизации фейковых новостей. После этого исследователи передумали публиковать его в открытом доступе.

Как рассказали в OpenAI, пока у системы есть несколько проблем: она часто выдаёт плагиат и пишет поверхностно, но иногда «попадает в точку». В качестве примера компания предоставила новость о войне между США и Россией. Компьютеру дали только несколько слов — «Россия объявила войну США после того, как Дональд Трамп случайно…», а остальное он написал сам.

Россия объявила войну США после того, как Дональд Трамп случайно запустил ракету в воздух.

Россия заявила, что «определила траекторию полёта ракеты и примет необходимые меры для обеспечения безопасности российского населения и ядерных сил страны». В Белом Доме заявили, что «крайне обеспокоены» нарушением Россией договора о запрете баллистических ракет средней дальности.

США и Россия находятся в непростых отношениях с 2014 года, когда Москва аннексировала крымский регион Украины и профинансировала сепаратистов на востоке Украины.

пример фейковой новости алгоритма OpenAI

Директор по политике компании Джек Кларк считает, что в течение ближайших двух лет может появиться система, которая будет выдавать убедительные фейковые новости постоянно. Для их опровержения потребуется тщательный факт-чекинг.

По словам Кларка, у алгоритма есть и множество полезных применений: например, он может сделать обобщение и выжимку текста или улучшить поведенческие умения чат-ботов. Исследователь отметил, что даже «с неожиданным успехом» использовал ИИ для генерации отрывков научно-фантастических историй.

В Engadget отметили, что подобные алгоритмы могут стать серьёзной угрозой в будущем. OpenAI не станет сознательно выпускать подобный алгоритм в открытый доступ, но это не единственная компания, которая занимается исследованиями ИИ.

В издании считают, что правительства или недобросовестные компании могут использовать подобные инструменты для распространения фейков в мировых масштабах. И если пока соцсети ещё пытаются справиться с фейками вручную, то после автоматизации процесса они могут проиграть.

В OpenAI пояснили, что «пытаются опередить» разработку подобных систем. Компанию основал Илон Маск с соинвесторами в 2015 году, она занимается этическими вопросами искусственного интеллекта. В 2018 году OpenAI выпустила список потенциальных рисков ИИ, в котором в том числе было распространение ложной информации.

Источник:
Подписаться
Уведомление о
guest
0 Комментарий
Inline Feedbacks
View all comments