Компания OpenAI — разработчик инструмента ChatGPT — решила не использовать технологию водяных знаков для идентификации текстов, созданных ИИ.
Эта функция могла бы подтверждать искусственное происхождение текстов, что было бы полезно, например, для образовательных учреждений в борьбе с использованием ИИ при написании работ.
Внутри компании по поводу внедрения водяных знаков сложились разногласия. Одни сотрудники утверждали, что это увеличит прозрачность деятельности компании, другие же выражали опасения относительно потенциального отрицательного воздействия на бизнес.
Исследование, проведенное по заказу OpenAI, выявило, что примерно 30% пользователей ChatGPT могли бы прекратить использование сервиса в случае введения маркировки. Это могло бы привести к значительным финансовым потерям и снижению популярности платформы, что в итоге заставило бы руководство отказаться от этой инициативы, поясняют эксперты.
The Verge подчеркивает, что OpenAI продолжает искать баланс между контролем за распространением сгенерированного контента и поддержанием своих коммерческих интересов.