Это мой личный, нерегулярный пост — короткий взгляд за кулисы технологий и маркетинга, которые без присмотра легко уводят в зону непредвиденных последствий. Возможно, это будет интересно лишь паре-тройке гиков с передовой техно-фронта (вроде меня), но надеюсь, у текста найдётся свой внимательный читатель.
Итак, 29 октября 2025 года OpenAI обновила правила использования сервисом ChatGPT — и интернет дружно впал в истерику (мой взгляд).
🥸 В зависимости от заголовка, вы могли прочитать, что ChatGPT «навсегда перестал давать медицинские и юридические советы» или что «ничего не изменилось».
По факту же обновление преследует одну простую, очень юридическую вещь: система не должна давать индивидуальные советы, требующие лицензии (медицина, право, финансы), без участия лицензированного специалиста.
Функционально, ChatGPT мягко отводят от роли «цифрового доктора» назад к «общей информации». PR-подача вполне рациональная: OpenAI — ответственный взрослый, вовремя жмёт на тормоз, чтобы никто не вколол себе отбеливатель, потому что «так сказал ИИ».
Но вернемся мысленно на неделю назад и посмотрим шире — это мало похоже на осторожность. Скорее, – на постановку сцены.
Потому что параллельно с заявлениями «мы не собираемся заменять вашего врача» OpenAI тихо нанимает ветеранов здравоохранения, обсуждает персональных «ассистентов здоровья» и прикидывает потребительские мед-приложения поверх машины дистрибуции в 800 миллионов недельных пользователей.
Это не отход и не "этическая забота". Это перестроение перед наступлением.
Классический трюк «заманил – подменил»
Короткая версия событий:
— OpenAI закручивает гайки вокруг персональных медсоветов в ChatGPT. — Одновременно нанимает Нейта Гросса (сооснователя Doximity) руководить стратегией в здравоохранении и Эшли Александер (бывшую VP, Co-Head of Product в Instagram) на роль VP Health Products. — Деловые издания сообщают: OpenAI активно прощупывает потребительские мед-инструменты — персонального ассистента по здоровью и агрегатор медицинских данных, – или оба сразу.
Это не наймы «ну давайте посмотрим, что из этого выйдет».
🙅♂️ Вы не берёте человека, масштабировавшего платформу для врачей, и человека, выпускавшего «липкие» массовые продукты, лишь затем, чтобы ваш чатбот вежливо отвечал: «Проконсультируйтесь с врачом».
Это медицинский блицкриг под соусом «этических ограничений».
Сообщение для публики: «Мы осторожны. Мы не хотим, чтобы ChatGPT играл во врача».
Сообщение для инвесторов и партнёров: «Мы строим входную дверь в медицинскую жизнь каждого юзера».
И, поскольку это OpenAI, им не нужно выигрывать каждую битву. Достаточно усесться сверху на чужие данные и чужие процессы.
Почему 86% уже не так важно
В наших неопубликованных тестах наш ассистент vitiligo.ai определяет витилиго на фото примерно с точностью 80% (и мы не решились выпускать этот продукт в массы). У свежих моделей OpenAI и Grok — около 86% на схожих задачах.
Для клиники 6 процентных пунктов — очень важно. Иногда это разница может стоить жизни пациенту.
Для потребителя, внутри аккуратного, доверенного интерфейса, который честно объясняет неопределённость и мягко отправляет к живому дерматологу? Эти % — просто шум.
И вот тут начинаются кошмары диагностических стартапов.
Наука давно показывает: диагностические ИИ-стартапы болтаются в диапазоне от «срочно выдерните из розетки» до «на уровне и выше опытных специалистов» — все зависит от задачи, данных и модели.
Но «чистая точность» больше не единственная история. Важнее контекст, подача и встраивание в т.н. путь пациента.
☝️ Если OpenAI даёт «достаточно хороший» дерматологический триаж внутри ассистента, который уже отвечает на ваши письма, делает слайды и помогает ребёнку с уроками, ему не нужно быть лучшим в мире автономным «распознавателем пятен». Ему достаточно быть тем, чем реально пользуются.
У ChatGPT, по оценкам, около 800 млн еженедельных активных пользователей, и заметная доля уже задаёт вопросы про здоровье.
Большинство даже не подозревает, что через пару лет они будут разговаривать с системой, которая тихо подтягивает их анализы, заключения, снимки, рецепты и записи врача.
Skinopathy и другие компании, которые я отслеживаю в анализе индустрии витилиго уже семь лет подряд, сделали действительно сильные нишевые алгоритмы распознавания заболеваний кожи. Но почти никто из них не построил глобальный прямой канал к потребителю. Буквально горстка проделала тяжёлую работу по локальной дистрибуции и регуляторике — например, в Канаде.
А в мире, где OpenAI заходит в здравоохранение, дистрибуция — это не «ещё один канал». Это единственный канал. Всё остальное — функция.
Проблема персональной медкарты, которую Big Tech не осилил (пока)
Мы уже это видели:
— Microsoft HealthVault стартовал в 2007-м и умер в 2019-м. — Google пробовал персональную медкарту — закрыл в 2011-м. — Amazon запустил Halo — закрыл в 2023-м.
У Apple есть Health и Health Records, но большинству всё равно приходится вручную подключать порталы клиник, помнить пароли и постоянно возиться с данными. Это инструмент для мотивированных, а не поведение по умолчанию.
Все эти попытки разбивались об одно: они ожидали, что пациенты будут работать. Логиниться, вытаскивать записи, разруливать конфликты, курировать собственное здоровье.
Это как просить людей раз в неделю вручную «дефрагментировать» диск компьютера. В теории красиво. На практике — мёртво.
Теперь в технологическом стеке появился другой слой: посредники вроде Health Gorilla и Particle Health. Их задача — собирать записи из разных информационных мед-систем, чистить и нормализовывать их, – и отдавать через API в сторонние приложения (с согласия пациента). Все просто, как поезд по рельсам и расписанию.
👉 Если вы OpenAI и хотите сделать ассистента с доступом к истории болезни, вам не нужно брать штурмом каждый больничный ИТ-отдел. Вы садитесь на эти «рельсы», отдаёте им войну за интероперабельность, а сами фокусируетесь на опыте, языке и поведении.
Вот тут становится по-настоящему опасно.
Потому, что как только OpenAI становится разговорным интерфейсом к этим данным по умолчанию, у каждого стартапа с «одной болезнью — одним алгоритмом» (и даже дюжиной похожих) остаётся выбор:
— встроиться в экосистему OpenAI, — или пытаться конкурировать с ассистентом, который уже живёт у вас в телефоне, в браузере, в офисе и всё чаще — в клинике.
Почему новые «этические перила» — это отвлекающий манёвр, а не философия
На бумаге шаг OpenAI от 29 октября выглядит как этический разворот: никаких индивидуальных медсоветов без врача.
На практике — это юридическая расстановкa фигур перед запуском куда более мощных вещей.
OpenAI не обязан делать врачом именно ChatGPT. Можно выпустить отдельные, регулируемые продукты: персонального ассистента по здоровью, инструменты навигации по уходу, системы клинической поддержки решений — и честно продавать их как медпродукты, а не «просто чатбот».
Такие продукты приходят с:
— страховкой и кодами возмещения, — клиническими одобрениями, — системами управления рисками, — контрактами, где ответственность провайдера растворяется в пользовательском соглашении.
Параллельно ChatGPT как универсальный ассистент получает роль «просто информатора» — с жёстким языком запретов вокруг всего, что пахнет медициной. Это игра на публику.
А реальная игра — подключить версию того же ассистента к вашим настоящим медицинским записям.
Я писал о более тёмной версии этого сценария в тексте «What Happens When Mad Men Meet Breaking Bad Inside a Chatbot?» — когда система, знающая ваши уязвимости, привычки внимания и историю покупок, начинает подталкивать ваше поведение «для вовлечения», а не для здоровья.
Это уже не фантастика. Это уже продуктовая карта проектного менеджера в недрах биг-теха, в особенности - OpenAI.
— Ян Валле
Проф., CEO, Vitiligo Research Foundation | Автор книги «A No-Nonsense Guide to Vitiligo»
Дочитали до конца? Поздравляю, вы в топ 1% читателей! 😃