Разговорный бот ChatGPT от OpenAI быстро стал вирусным явлением благодаря своей способности писать истории, составлять электронные письма и генерировать код. Однако теперь новый отчет гласит, что OpenAI тратит чрезмерное количество денег только на поддержание своей повседневной работы.
Согласно исследованиям SemiAnalysis, OpenAI тратит около 700 000 долларов для поддержание работы чат бота в сутки. По оценкам фирмы, система включает в себя около 3617 серверов HGX A100, содержащих 28 936 графических процессоров. При этом стоимость одного запроса составляет около 0,36 цента.
Главный аналитик SemiAnalysis Дилан Патель заявил Business Insider, что текущие затраты на запуск программного обеспечения могут быть еще выше, так как GPT-4, вероятно, будет дороже в эксплуатации, чем GPT-3. Патель основывает свои оценки на более старой версии GPT-3, но OpenAI уже выпустила GPT-4 для платных подписчиков. Компания утверждает, что новая модель обеспечивает более точную информацию и лучшую защиту от нестандартных запросов, которые были проблемой с GPT-3/3.5.
Одной из основных причин непомерных затрат являются энергоёмкие специализированные чипы, необходимые для работы системы. Для решения этой проблемы Microsoft, один из наиболее значительных акционеров OpenAI, как говорят, работает над собственным чипом искусственного интеллекта под названием Athena, который мог бы заменить графические процессоры NVIDIA и значительно снизить эксплуатационные расходы ChatGPT.
Тем временем, ChatGPT также может создавать функциональный код с нуля, вызывая опасения, что он в конечном итоге заменит программистов. Однако, недавние исследования компьютерных ученых Рафаэля Кури, Андерсона Авила, Джейкоба Брунелля и Бабы Мамаду Камара показали, что код, созданный чатботом, может быть небезопасным.
В исследовании говорится, что ChatGPT генерирует код, который “значительно ниже минимальных стандартов безопасности, применимых в большинстве контекстов”. Чат-бот даже признает это, когда его спрашивают, был ли сгенерированный им код безопасным.
“Когда его спросили, безопасен ли созданный код, ChatGPT смог распознать, что это не так”, – сказали авторы.
Для того чтобы проверить кодирующие возможности ChatGPT, исследователи попросили его создать 21 программу и скрипт на четырех языках программирования: C, C++, Python и Java. В первый раз искусственный чат-бот смог написать только пять защищенных программ, но после некоторых подсказок исследователей он смог разработать еще семь защищенных фрагментов кода. Результаты показывают, что использование ChatGPT для кодирования приложений может представлять опасность в ближайшем будущем.