OpenAI удаляет функцию ChatGPT после утечки личных разговоров в поиск Google


Источник: VentureBeat, создано с помощью Midjourney
Хотите получать более ценную информацию? Подпишитесь на наши еженедельные рассылки, чтобы получать только то, что важно для руководителей в сфере корпоративного ИИ, данных и безопасности. Подпишитесь сейчас
В четверг OpenAI совершила редкий разворот, внезапно прекратив поддержку функции, которая позволяла пользователям ChatGPT делать свои переписки видимыми для Google и других поисковых систем. Решение было принято спустя несколько часов после широкой критики в социальных сетях и представляет собой яркий пример того, как быстро вопросы конфиденциальности могут свести на нет даже самые благонамеренные эксперименты в области искусственного интеллекта.
Эта функция, которую OpenAI описала как « кратковременный эксперимент », требовала от пользователей активного согласия: они делились чатом и устанавливали флажок, чтобы сделать его доступным для поиска. Однако столь быстрый отказ подчёркивает фундаментальную проблему, стоящую перед компаниями, работающими в сфере ИИ: поиск баланса между потенциальными преимуществами обмена знаниями и вполне реальными рисками непреднамеренного раскрытия данных.
Мы только что удалили функцию из @ChatGPTapp , которая позволяла пользователям делать свои беседы видимыми для поисковых систем, таких как Google. Это был краткосрочный эксперимент, призванный помочь людям находить полезные беседы. Эта функция требовала от пользователей согласия, сначала выбрав чат… pic.twitter.com/mGI3lF05Ua
— DANΞ (@cryps1s) 31 июля 2025 г.
Скандал разгорелся, когда пользователи обнаружили, что, используя поиск в Google по запросу « site:chatgpt.com/share », можно найти тысячи разговоров незнакомцев с ИИ-помощником. Результаты опроса рисовали интимную картину взаимодействия людей с искусственным интеллектом — от обыденных просьб о совете по ремонту ванной комнаты до глубоко личных вопросов о здоровье и профессиональных вопросов переписывания резюме. (Учитывая личный характер этих разговоров, часто содержавших имена, местоположение и личные обстоятельства пользователей, VentureBeat не публикует ссылки на них и не раскрывает подробности.)
«В конечном итоге мы считаем, что эта функция предоставила слишком много возможностей для людей случайно поделиться вещами, которыми они не собирались делиться», — объяснила команда безопасности OpenAI в X, признав, что барьеров оказалось недостаточно для предотвращения неправомерного использования.
Серия мероприятий AI Impact возвращается в Сан-Франциско — 5 августа
Новая фаза развития ИИ уже наступила — вы готовы? Присоединяйтесь к лидерам Block, GSK и SAP, чтобы узнать, как автономные агенты меняют рабочие процессы предприятий — от принятия решений в режиме реального времени до сквозной автоматизации.
Забронируйте свое место сейчас — количество мест ограничено: https://bit.ly/3GuuPLF
Инцидент выявил важнейшее «слепое пятно» в подходе компаний, занимающихся разработкой ИИ, к проектированию пользовательского опыта. Хотя технические меры безопасности существовали (функция была доступна по желанию и требовала нескольких кликов для активации), человеческий фактор оказался проблематичным. Пользователи либо не до конца понимали последствия добавления возможности поиска в своих чатах, либо просто игнорировали последствия для конфиденциальности в своём энтузиазме, стремясь делиться полезными сообщениями.
Как заметил один эксперт по безопасности в X : «Препятствия к обмену потенциально личной информацией должны быть более серьезными, чем просто флажок, или их не должно быть вообще».
Хороший подход — быстро и ожидаемо убрать его. Если мы хотим, чтобы ИИ был доступен, нужно учитывать, что большинство пользователей никогда не читают, что нажимают.
Препятствия к обмену потенциально личной информацией должны быть более серьезными, чем просто флажок, или вообще отсутствовать. https://t.co/REmHd1AAXY
Ошибка OpenAI следует тревожной тенденции в индустрии искусственного интеллекта. В сентябре 2023 года Google столкнулась с аналогичной критикой, когда её разговоры с Bard AI начали появляться в результатах поиска , что побудило компанию принять меры по блокировке. Meta столкнулась с аналогичными проблемами, когда некоторые пользователи Meta AI непреднамеренно публиковали личные чаты в публичных лентах , несмотря на предупреждения об изменении статуса конфиденциальности.
Эти инциденты выявляют более общую проблему: компании, занимающиеся разработкой ИИ, стремительно внедряют инновации и дифференцируют свои продукты, иногда в ущерб надёжной защите конфиденциальности. Необходимость внедрения новых функций и сохранения конкурентного преимущества может отодвинуть на второй план тщательное рассмотрение потенциальных сценариев злоупотребления.
Для руководителей предприятий эта тенденция должна вызывать серьёзные вопросы о должной осмотрительности поставщиков. Если продукты ИИ, ориентированные на потребителей, не обеспечивают базового контроля конфиденциальности, что это означает для бизнес-приложений, обрабатывающих конфиденциальные корпоративные данные?
Спор вокруг поисковой системы ChatGPT имеет особое значение для бизнес-пользователей, которые всё чаще полагаются на ИИ-помощников для самых разных задач — от стратегического планирования до конкурентного анализа. Хотя OpenAI утверждает, что корпоративные и командные учётные записи имеют разные уровни защиты конфиденциальности, ситуация с потребительскими продуктами подчёркивает важность понимания того, как именно поставщики ИИ-решений осуществляют обмен данными и их хранение.
Умные предприятия должны требовать от своих поставщиков ИИ чётких ответов по вопросам управления данными. Ключевые вопросы включают: При каких обстоятельствах разговоры могут быть доступны третьим лицам? Какие существуют средства контроля для предотвращения случайного раскрытия информации? Насколько быстро компании могут реагировать на инциденты, связанные с нарушением конфиденциальности?
Этот инцидент также демонстрирует вирусный характер нарушений конфиденциальности в эпоху социальных сетей. В течение нескольких часов после обнаружения информация распространилась по X.com (ранее Twitter) , Reddit и крупным технологическим изданиям, что ещё больше подорвало репутацию компании и вынудило OpenAI принять меры.
Концепция OpenAI в отношении функции чата с возможностью поиска изначально не была ошибочной. Возможность находить полезные диалоги с участием ИИ могла бы действительно помочь пользователям находить решения распространённых проблем, подобно тому, как Stack Overflow стал бесценным ресурсом для программистов. Концепция создания базы знаний с возможностью поиска на основе взаимодействий с ИИ заслуживает внимания.
Однако реализация выявила фундаментальное противоречие в разработке ИИ. Компании хотят использовать коллективный интеллект, генерируемый в процессе взаимодействия с пользователями, одновременно защищая конфиденциальность их данных. Поиск оптимального баланса требует более сложных подходов, чем простое выставление флажков.
Один из пользователей X уловил сложность : «Не урезайте функциональность из-за того, что люди не умеют читать. Стандартные настройки хороши и безопасны, вам следовало бы настоять на своём». Но другие не согласились, и один из них отметил, что «содержимое chatgpt часто более конфиденциально, чем банковский счёт».
Как предложил эксперт по разработке продуктов Джеффри Эмануэль в X: «Определенно следует провести посмертный анализ этого и изменить подход в будущем, задав себе вопрос: «Насколько плохо будет, если самые глупые 20% населения неправильно поймут и неправильно используют эту функцию?», и спланировать действия соответствующим образом».
Определенно следует провести посмертный анализ этого вопроса и изменить подход в будущем, задав себе вопрос: «Насколько плохо будет, если самые глупые 20% населения неправильно поймут и будут неправильно использовать эту функцию?», и составить соответствующий план.
— Джеффри Эмануэль (@doodlestein) 31 июля 2025 г.
Фиаско с поисковой доступностью ChatGPT преподносит несколько важных уроков как компаниям, работающим в сфере искусственного интеллекта, так и их корпоративным клиентам. Во-первых, настройки конфиденциальности по умолчанию имеют огромное значение. Функции, которые могут раскрыть конфиденциальную информацию, должны требовать явного, осознанного согласия с чёткими предупреждениями о возможных последствиях.
Во-вторых, дизайн пользовательского интерфейса играет ключевую роль в защите конфиденциальности. Сложные многоэтапные процессы, даже технически безопасные, могут привести к ошибкам пользователей с серьёзными последствиями. Компаниям, работающим в сфере ИИ, необходимо вложить значительные средства в создание надёжных и интуитивно понятных средств управления конфиденциальностью.
В-третьих, крайне важны возможности быстрого реагирования. Способность OpenAI изменить курс в течение нескольких часов, вероятно, предотвратила более серьёзный репутационный ущерб, но инцидент всё же вызвал вопросы к процессу проверки функций.
По мере того, как искусственный интеллект всё больше интегрируется в бизнес-процессы, подобные инциденты, связанные с конфиденциальностью, вероятно, станут более серьёзными. Ставки резко возрастают, когда в ходе обсуждений затрагиваются корпоративная стратегия, данные клиентов или конфиденциальная информация, а не личные вопросы о ремонте дома.
Дальновидным предприятиям следует рассматривать этот инцидент как сигнал к усилению своих систем управления ИИ. Это включает в себя проведение тщательной оценки воздействия на конфиденциальность перед внедрением новых инструментов ИИ, разработку четких политик относительно того, какая информация может быть передана системам ИИ, и ведение подробного учета приложений ИИ в организации.
Более широкая индустрия искусственного интеллекта также должна извлечь уроки из неудач OpenAI. По мере того, как эти инструменты становятся всё более мощными и повсеместными, право на ошибку в защите конфиденциальности продолжает сокращаться. Компании, которые с самого начала уделяют первостепенное внимание продуманному проектированию систем конфиденциальности, вероятно, получат значительные конкурентные преимущества по сравнению с теми, кто относится к конфиденциальности как к чему-то второстепенному.
Эпизод ChatGPT с возможностью поиска иллюстрирует основополагающую истину о внедрении ИИ: подорванное доверие невероятно сложно восстановить. Хотя быстрая реакция OpenAI, возможно, позволила сдержать немедленный ущерб, этот инцидент служит напоминанием о том, что нарушения конфиденциальности могут быстро затмить технические достижения.
Для отрасли, стремящейся преобразить нашу жизнь и работу, сохранение доверия пользователей — не просто приятное дополнение, а жизненно важная необходимость. По мере расширения возможностей искусственного интеллекта успеха добьются те компании, которые докажут свою способность ответственно подходить к инновациям, ставя конфиденциальность и безопасность пользователей в центр процесса разработки своих продуктов.
Вопрос теперь в том, извлечет ли индустрия искусственного интеллекта урок из этого последнего тревожного сигнала о конфиденциальности или продолжит спотыкаться на подобных скандалах. Ведь в гонке за создание максимально полезного ИИ компании, забывающие о защите своих пользователей, могут оказаться в одиночестве.
Если вы хотите произвести впечатление на своего руководителя, VB Daily поможет вам. Мы расскажем вам всё изнутри о том, что компании делают с генеративным ИИ, от изменений в законодательстве до практического внедрения, чтобы вы могли поделиться своими идеями и получить максимальную отдачу от инвестиций.
Ознакомьтесь с нашей Политикой конфиденциальности
Спасибо за подписку. Больше новостей VB можно найти здесь .
Произошла ошибка.


Узнайте, как четыре компании создали ИИ-инфраструктуру, которая сокращает расходы, модернизирует системы и быстро масштабирует производительность. В этом интерактивном опыте вы увидите, что они изменили, почему это сработало и как вы можете применить это в своей стратегии.
Узнать большеventurebeat