Нейросети Google и OpenAI начали «раздевать» людей

Полная версия

Журнал Wired заявил, что системы создания изображений, разработанные Google и OpenAI, активно обходят установленных механизмов контроля. Журналисты утверждают, что при хитроумных манипуляциях с текстовыми запросами можно вынудить ИИ генерировать контент, противоречащий заявленным принципами безопасности платформ.

Утверждается, что эта информация основывается на исчезнувших ныне постах на Reddit, где участники делились методами «взлома» – специфическими комбинациями слов, позволяющими обмануть системы защиты.

Вопреки официально декларируемому запрету на откровенно сексуализированные материалы, в некоторых ситуациях нейросети создают изображения без получения согласия от лиц, чьи фотографии использовались для обучения моделей. Фактически нейросети «раздевают» людей.

Схожие недостатки наблюдались и у других ИИ-платформ. В частности, активное обсуждение вызвал чат-бот Grok от компании xAI, а также генератор изображений Flux, который после запуска моментально стал использоваться для массового производства дипфейков из-за недостаточных фильтров.

Представители Google и OpenAI признали осведомлённость об обнаруженных уязвимостях и заявили о постоянной работе над совершенствованием систем модерации. Компании подчеркнули, что борьба со злоупотреблениями является для них ключевой задачей, и обнаруженные способы обхода фильтров оперативно устраняются.

Эксперты считают, что баги в нейросетях Google и OpenAI грозят вылиться в серьезные судебные разбирательства.