На прошлой неделе профессор Джонатан Терли получил странное электронное письмо.
В рамках исследования его коллега-юрист из Калифорнии попросил чат-бота ChatGPT с искусственным интеллектом составить список ученых-юристов, которые подвергали кого-либо сексуальным домогательствам. Имя Терли было в этом списке.
ChatGPT-4, созданный OpenAI, сообщил, что Терли написал комментарии сексуального характера и пытался дотронуться до студентки во время учебной поездки на Аляску, ссылаясь в качестве источника информации на статью в The Washington Post от марта 2018 года. Проблема в том что такой статьи не существовало. Этой поездки на Аляску никогда не было. И Терли заявил, что его никогда не обвиняли в домогательствах к студентам.
Будучи постоянным комментатором в СМИ, Терли иногда просил внести исправления в новостные статьи. Но в этот раз не было журналиста или редактора, которому можно было бы позвонить, и не было возможности исправить запись.
“Это было очень тревожно”, – сказал он в интервью The Post. “Подобные обвинения невероятно дискредитируют меня”.
Опыт Терли – это пример того, какие подводные камни таит в себе последняя волна языковых ботов, которые привлекли внимание широкой общественности своей способностью писать компьютерный код, сочинять стихи и вести жутко похожие на человеческие разговоры. Но эта творческая способность может также стать двигателем для фейковых утверждений; модели могут искажать ключевые факты с большой правдивостью, даже фабрикуя первоисточники для подтверждения своих утверждений.
По мере того, как нерегулируемое программное обеспечение искусственного интеллекта, такое как ChatGPT, Bing от Microsoft и Bard от Google, начинает внедряться в Интернете, его склонность к созданию потенциально опасных ложных утверждений вызывает опасения по поводу распространения дезинформации – и новые вопросы о том, кто несет ответственность за то, что чат-боты вводят в заблуждение.
Кейт Кроуфорд, профессор Анненбергского университета Южной Калифорнии и старший научный сотрудник Microsoft Research.
“Поскольку эти системы отвечают так уверенно, очень соблазнительно предположить, что они могут сделать все, и очень трудно отличить факты от лжи”
В своем заявлении представитель OpenAI Нико Феликс сказал: “Когда пользователи подписываются на ChatGPT, мы стремимся быть максимально прозрачными в том, что он не всегда может генерировать точные ответы. Повышение точности фактов является для нас важным направлением”.
Современные чат-боты с искусственным интеллектом работают на основе огромных массивов онлайн-контента, часто взятого из таких источников, как Wikipedia и Reddit, чтобы составить правдоподобно звучащие ответы практически на любой вопрос. Они обучены определять шаблоны слов и идей, чтобы не отклоняться от темы, генерируя предложения, абзацы и даже целые эссе, которые могут быть похожи на материалы, опубликованные в Интернете.
Эти боты могут удивить, когда они создают любую тематику, объясняют продвинутую концепцию физики или создают увлекательный план урока для обучения пятиклассников астрономии.
Но то, что они хорошо пишут, не означает, что получаемые предложения всегда верны; профессор информатики Принстонского университета Арвинд Нараянан назвал ChatGPT “генератором бреда”. Хотя их ответы часто звучат правдиво, у моделей нет надежных механизмов для проверки того, что они говорят. В интернете есть многочисленные примеры того, как инструменты не могут ответить на основные фактические вопросы или даже фабрикуют неправду, дополняя ее реалистичными деталями и поддельными цитатами.
В среду агентство Reuters сообщило, что Брайан Худ, региональный мэр австралийского округа Хепберн Шир, угрожает подать первый иск о клевете против OpenAI, если компания не исправит ложные утверждения о том, что он отбывал срок в тюрьме за взяточничество.
Кроуфорд, профессор Университета Южной Калифорнии, рассказала, что недавно с ней связался журналист, который использовал ChatGPT для поиска источников для статьи. Бот предложил Кроуфорд примеры работ, включая название статьи, дату публикации и цитаты. Все это звучало правдоподобно, и все это было фейком.
Кроуфорд назвала эти выдуманные источники “галлюцинациями”, что является игрой на термине “галлюцинации”, который описывает ложь и бессмыслицу, генерируемые ИИ.
“Именно это специфическое сочетание фактов и фальши делает эти системы, на мой взгляд, весьма опасными, если вы пытаетесь использовать их в качестве генераторов фактов”, – сказал Кроуфорд в телефонном интервью.