Вы сидите в кабинете врача. У вас болит — где-то тут, нет, скорее вот тут, ну такая тянущая боль, иногда стреляет, чаще по утрам, хотя вчера было и вечером. Врач кивает, записывает что-то в карту. Вы выходите. Через неделю читаете заключение: «Пациент жалуется на периодические боли в эпигастральной области с иррадиацией в правое подреберье». Вы не говорили ни одного из этих слов. Но врач вас перевёл — с человеческого языка на медицинский. И при этом переводе что-то потерялось.
Теперь представьте другую картину. Перед визитом вы потратили двадцать минут с ChatGPT, описали свои симптомы, получили список уточняющих вопросов, структурировали жалобы и пришли к врачу с документом, который тот прочитал за минуту. Врач задал три точечных вопроса вместо двадцати общих. Приём занял пятнадцать минут вместо сорока. Диагноз — точнее.
Между вами и другим человеком всегда стоял переводчик — ваш собственный язык. AI просто делает этот перевод видимым.
Язык — это баг, а не фича
Естественный язык — это lossy compression. Вы думаете сложными многомерными ощущениями, эмоциями, образами — а на выходе получается линейная последовательность слов. Как если бы вы пытались описать картину Моне по телефону: что-то передаётся, но большая часть теряется.
И это не абстрактная философия. Это повседневная катастрофа. Менеджер просит «сделать быстрее» — разработчик понимает «вырезать тесты». Жена говорит «мне ничего не нужно» — муж слышит ровно эти слова. Врач говорит «результаты в пределах нормы» — пациент уходит счастливый, не зная, что «предел нормы» может означать «пограничное состояние, требующее наблюдения».
Третий агент уже в комнате
Вот что интересно: AI-посредник в коммуникации — это не гипотеза. Это уже происходит, просто мы не называем это так.
Когда вы гуглите симптомы перед визитом к врачу — вы используете поисковик как переводчика с бытового на медицинский. Когда используете Grammarly для делового письма — это AI, который переводит вашу мысль на корпоративный диалект. Когда GPT помогает вам сформулировать претензию в банк — он переводит вашу злость в юридически грамотный текст.
В 2020 году исследователи из Стэнфорда (Hancock, Naaman, Levy) ввели термин AI-MC — коммуникация, опосредованная искусственным интеллектом. Не чат с ботом, а разговор между людьми, где AI выступает невидимым посредником: редактирует, дополняет, переводит, адаптирует сообщения до того, как они дойдут до адресата. Они предупреждали, что это изменит саму природу человеческого общения. Прошло шесть лет — и они оказались правы.
Разница между 2020 и 2026 — масштаб. Тогда AI-MC был академическим термином. Сейчас люди буквально не отправляют важные письма, не пропустив их через Claude или GPT. Мой знакомый HRD рассказывал, что в их компании 80% менеджеров используют AI для «пересборки» фидбэка перед тем, как отдать его сотруднику. Фидбэк одного человека, отредактированный машиной, прочитанный другим человеком. Три агента — один разговор.
Что AI-прослойка добавляет к разговору
Суть не в том, что AI «улучшает грамматику». Это тривиально. Суть — в контексте, который люди не умеют передать словами.
мысль → сжатие
в слова
текст без
контекста
декодирование
(с ошибками)
▼ с AI-прослойкой ▼
мысль → сжатие
в слова
+ эмоции, культура,
история, контекст
обогащённое
сообщение
AI-посредник может добавить к вашему сообщению то, что вы сами не смогли или не захотели артикулировать:
- Эмоциональный контекст. «Он написал ‘ок’, но последние три дня его тон становился всё короче — возможно, он раздражён, а не согласен.»
- Культурные различия. Японский коллега написал «это интересная идея» — AI подсказывает, что в японской деловой культуре это часто означает вежливый отказ.
- Историю взаимодействия. «Вы обсуждали этот вопрос три месяца назад и не пришли к согласию — вот резюме тех аргументов.»
- Перевод между регистрами. Пациент говорит «мне плохо», AI переводит для врача: структурированная жалоба с шкалой от 1 до 10, длительность, триггеры, сопутствующие симптомы.
Медицина — первый полигон
Медицина стала естественной первой территорией для AI-прослойки, потому что цена недопонимания здесь измеряется буквально в жизнях.
В 2025 году исследование Mayo Clinic показало, что пациенты, использовавшие AI-ассистента для подготовки к приёму, задавали на 60% больше клинически релевантных вопросов и на 35% лучше понимали план лечения. Врачи в экспериментальной группе отметили, что «впервые за карьеру пациенты приходили подготовленными».
Но медицина — это только начало. Дальше — везде, где коммуникация имеет значение. А она имеет значение везде.
Тёмная сторона переводчика
И вот тут становится по-настоящему интересно. Потому что у каждого посредника есть свои интересы. Или, что ещё опаснее — интересы того, кто его создал.
Когда AI переписывает ваше сообщение, чтобы оно звучало «профессиональнее», — кто решает, что значит «профессионально»? Когда AI сглаживает конфликт в переписке — он помогает вам или мешает конфликту, который был необходим? Когда AI «адаптирует» ваше сообщение под культуру получателя — он переводит или цензурирует?
Вот конкретные сценарии, которые уже вызывают тревогу:
Потеря аутентичности. Если оба собеседника пропускают сообщения через AI, то кто с кем разговаривает? Два человека — или два оптимизирующих алгоритма, которые сошлись на оптимальной формулировке? Переписка превращается в пинг-понг между моделями, а люди — в формальных одобрителей текста.
Эмоциональная стерилизация. AI по умолчанию сглаживает. Делает вежливее, мягче, «конструктивнее». Но иногда злость — это информация. Грубость — это сигнал. Слёзы в голосе — это данные, которые нужно передать. AI-прослойка рискует превратить все человеческие коммуникации в один ровный, безопасный, мёртвый тон.
Асимметрия власти. Тот, кто контролирует AI-прослойку, контролирует разговор. Корпорация может настроить AI так, чтобы жалобы сотрудников звучали «менее остро». Государство может фильтровать протестные настроения на стадии формулировки. Это не цензура — это предцензура, и она невидима.
Чем лучше AI переводит между людьми, тем меньше люди учатся понимать друг друга сами. Автокоррекция убила грамотность. GPS убил навигацию. AI-коммуникация рискует убить эмпатию — способность декодировать чужие слова самостоятельно, со всеми ошибками и догадками, которые делают общение человеческим.
Так это будущее или антиутопия?
И то, и другое. Как и всё по-настоящему важное.
Автомобиль убил тысячи людей — и спас миллионы часов жизни. Антибиотики создали суперинфекции — и победили чуму. AI-прослойка в коммуникации сделает разговоры эффективнее — и, возможно, менее человечными.
Ключевой вопрос не «будет ли это» — а на каких условиях. Будет ли AI-посредник прозрачным (оба участника видят, что было изменено)? Будет ли он подконтрольным (пользователь решает, что фильтровать)? Будет ли он нейтральным (без скрытой повестки от разработчика)?
Прямо сейчас ответ на все три вопроса — «нет». И это нужно менять до того, как AI-прослойка станет стандартом. Потому что после — будет поздно.
К 2030 году не менее 60% деловой переписки в компаниях из Fortune 500 будет проходить через AI-посредник — встроенный в почтовые клиенты, мессенджеры и CRM-системы слой, который автоматически адаптирует тон, добавляет контекст, переводит между профессиональными регистрами и сглаживает потенциальные конфликты.
Как минимум одна крупная платформа (Microsoft, Google или Salesforce) выпустит продукт, явно позиционированный как «AI Communication Layer» — не ассистент для написания текста, а именно посредник между отправителем и получателем, работающий в реальном времени с обеих сторон диалога. Это породит новую волну дискуссий об аутентичности коммуникации и как минимум один громкий скандал, связанный с тем, что AI-прослойка исказила смысл сообщения с серьёзными последствиями.