Лонгриды

Лицемерие "медицинского разворота" OpenAI

Это мой личный, нерегулярный пост — короткий взгляд за кулисы технологий и маркетинга, которые без присмотра легко уводят в зону непредвиденных последствий. Возможно, это будет интересно лишь паре-тройке гиков с передовой техно-фронта (вроде меня), но надеюсь, у текста найдётся свой внимательный читатель.

Итак, 29 октября 2025 года OpenAI обновила правила использования сервисом ChatGPT — и интернет дружно впал в истерику (мой взгляд).

🥸 В зависимости от заголовка, вы могли прочитать, что ChatGPT «навсегда перестал давать медицинские и юридические советы» или что «ничего не изменилось».

По факту же обновление преследует одну простую, очень юридическую вещь: система не должна давать индивидуальные советы, требующие лицензии (медицина, право, финансы), без участия лицензированного специалиста.

Функционально, ChatGPT мягко отводят от роли «цифрового доктора» назад к «общей информации». PR-подача вполне рациональная: OpenAI — ответственный взрослый, вовремя жмёт на тормоз, чтобы никто не вколол себе отбеливатель, потому что «так сказал ИИ».

Но вернемся мысленно на неделю назад и посмотрим шире — это мало похоже на осторожность. Скорее, – на постановку сцены.

Потому что параллельно с заявлениями «мы не собираемся заменять вашего врача» OpenAI тихо нанимает ветеранов здравоохранения, обсуждает персональных «ассистентов здоровья» и прикидывает потребительские мед-приложения поверх машины дистрибуции в 800 миллионов недельных пользователей.

Это не отход и не "этическая забота". Это перестроение перед наступлением.

Классический трюк «заманил – подменил»

Короткая версия событий:

— OpenAI закручивает гайки вокруг персональных медсоветов в ChatGPT.
— Одновременно нанимает Нейта Гросса (сооснователя Doximity) руководить стратегией в здравоохранении и Эшли Александер (бывшую VP, Co-Head of Product в Instagram) на роль VP Health Products.
— Деловые издания сообщают: OpenAI активно прощупывает потребительские мед-инструменты — персонального ассистента по здоровью и агрегатор медицинских данных, – или оба сразу.

Это не наймы «ну давайте посмотрим, что из этого выйдет».

🙅‍♂️ Вы не берёте человека, масштабировавшего платформу для врачей, и человека, выпускавшего «липкие» массовые продукты, лишь затем, чтобы ваш чатбот вежливо отвечал: «Проконсультируйтесь с врачом».

Это медицинский блицкриг под соусом «этических ограничений».

  • Сообщение для публики: «Мы осторожны. Мы не хотим, чтобы ChatGPT играл во врача».
  • Сообщение для инвесторов и партнёров: «Мы строим входную дверь в медицинскую жизнь каждого юзера».

И, поскольку это OpenAI, им не нужно выигрывать каждую битву. Достаточно усесться сверху на чужие данные и чужие процессы.

Почему 86% уже не так важно

В наших неопубликованных тестах наш ассистент vitiligo.ai определяет витилиго на фото примерно с точностью 80% (и мы не решились выпускать этот продукт в массы). У свежих моделей OpenAI и Grok — около 86% на схожих задачах.

Для клиники 6 процентных пунктов — очень важно. Иногда это разница может стоить жизни пациенту.

Для потребителя, внутри аккуратного, доверенного интерфейса, который честно объясняет неопределённость и мягко отправляет к живому дерматологу? Эти % — просто шум.

И вот тут начинаются кошмары диагностических стартапов.

Наука давно показывает: диагностические ИИ-стартапы болтаются в диапазоне от «срочно выдерните из розетки» до «на уровне и выше опытных специалистов» — все зависит от задачи, данных и модели.

Но «чистая точность» больше не единственная история. Важнее контекст, подача и встраивание в т.н. путь пациента.

☝️ Если OpenAI даёт «достаточно хороший» дерматологический триаж внутри ассистента, который уже отвечает на ваши письма, делает слайды и помогает ребёнку с уроками, ему не нужно быть лучшим в мире автономным «распознавателем пятен». Ему достаточно быть тем, чем реально пользуются.

У ChatGPT, по оценкам, около 800 млн еженедельных активных пользователей, и заметная доля уже задаёт вопросы про здоровье.
Большинство даже не подозревает, что через пару лет они будут разговаривать с системой, которая тихо подтягивает их анализы, заключения, снимки, рецепты и записи врача.
Skinopathy и другие компании, которые я отслеживаю в анализе индустрии витилиго уже семь лет подряд, сделали действительно сильные нишевые алгоритмы распознавания заболеваний кожи. Но почти никто из них не построил глобальный прямой канал к потребителю. Буквально горстка проделала тяжёлую работу по локальной дистрибуции и регуляторике — например, в Канаде.

А в мире, где OpenAI заходит в здравоохранение, дистрибуция — это не «ещё один канал». Это единственный канал. Всё остальное — функция.

Проблема персональной медкарты, которую Big Tech не осилил (пока)

Мы уже это видели:

— Microsoft HealthVault стартовал в 2007-м и умер в 2019-м.
— Google пробовал персональную медкарту — закрыл в 2011-м.
— Amazon запустил Halo — закрыл в 2023-м.

У Apple есть Health и Health Records, но большинству всё равно приходится вручную подключать порталы клиник, помнить пароли и постоянно возиться с данными. Это инструмент для мотивированных, а не поведение по умолчанию.

Все эти попытки разбивались об одно: они ожидали, что пациенты будут работать. Логиниться, вытаскивать записи, разруливать конфликты, курировать собственное здоровье.

Это как просить людей раз в неделю вручную «дефрагментировать» диск компьютера. В теории красиво. На практике — мёртво.

Теперь в технологическом стеке появился другой слой: посредники вроде Health Gorilla и Particle Health. Их задача — собирать записи из разных информационных мед-систем, чистить и нормализовывать их, – и отдавать через API в сторонние приложения (с согласия пациента). Все просто, как поезд по рельсам и расписанию.

👉 Если вы OpenAI и хотите сделать ассистента с доступом к истории болезни, вам не нужно брать штурмом каждый больничный ИТ-отдел. Вы садитесь на эти «рельсы», отдаёте им войну за интероперабельность, а сами фокусируетесь на опыте, языке и поведении.

Вот тут становится по-настоящему опасно.

Потому, что как только OpenAI становится разговорным интерфейсом к этим данным по умолчанию, у каждого стартапа с «одной болезнью — одним алгоритмом» (и даже дюжиной похожих) остаётся выбор:

— встроиться в экосистему OpenAI,
— или пытаться конкурировать с ассистентом, который уже живёт у вас в телефоне, в браузере, в офисе и всё чаще — в клинике.

Почему новые «этические перила» — это отвлекающий манёвр, а не философия

На бумаге шаг OpenAI от 29 октября выглядит как этический разворот: никаких индивидуальных медсоветов без врача.

На практике — это юридическая расстановкa фигур перед запуском куда более мощных вещей.

OpenAI не обязан делать врачом именно ChatGPT. Можно выпустить отдельные, регулируемые продукты: персонального ассистента по здоровью, инструменты навигации по уходу, системы клинической поддержки решений — и честно продавать их как медпродукты, а не «просто чатбот».

Такие продукты приходят с:

— страховкой и кодами возмещения,
— клиническими одобрениями,
— системами управления рисками,
— контрактами, где ответственность провайдера растворяется в пользовательском соглашении.

Параллельно ChatGPT как универсальный ассистент получает роль «просто информатора» — с жёстким языком запретов вокруг всего, что пахнет медициной. Это игра на публику.

А реальная игра — подключить версию того же ассистента к вашим настоящим медицинским записям.

Я писал о более тёмной версии этого сценария в тексте «What Happens When Mad Men Meet Breaking Bad Inside a Chatbot?» — когда система, знающая ваши уязвимости, привычки внимания и историю покупок, начинает подталкивать ваше поведение «для вовлечения», а не для здоровья.

Это уже не фантастика. Это уже продуктовая карта проектного менеджера в недрах биг-теха, в особенности - OpenAI.

— Ян Валле

Проф., CEO, Vitiligo Research Foundation | Автор книги «A No-Nonsense Guide to Vitiligo»
Дочитали до конца? Поздравляю, вы в топ 1% читателей! 😃

Рекомендую предыдущие материалы по теме:

2025-11-12 11:29 Технологии