В Google решили не просто говорить о защите данных, а строить ИИ так, чтобы персональная информация вообще не покидала ваше устройство. Результат — платформа Parfait: она учит модели прямо на телефоне, прячет сырой текст, фото и жесты за шифром и «шумом» и отдаёт в облако лишь обезличенные обновления. Иными словами, ИИ остаётся полезным, но любопытным серверам уже нечего подслушать.
Идея не появилась на пустом месте. Ещё с 2017 года команда Google обкатывала федеративное обучение на клавиатуре Gboard, чтобы предсказывать слова, не сливая переписки. Опыт показал, что on-device-подход реально работает на десятках миллионов телефонов, и в 2025-м его выделили в отдельный набор инструментов под названием Parfait.
Главные приёмы приватности
1. Федеративное обучение. Каждому гаджету достаётся копия модели, он тренирует её на своих данных и возвращает на сервер без текста и картинок.
2. Дифференциальная приватность. Прежде чем данные переходят из телефона, к ним добавляют случайный шум. Даже перехватив пакет, атакующий не восстановит исходную фразу.
3. Secure / Trusted Execution Environments. Чувствительные вычисления проходят в аппаратном «энклаве» процессора — туда не заглянет ни ОС, ни администратор сервера.
Результат прост: сервисы умнеют, а разработчики и даже сама компания Google не видят исходные данные. Код Parfait открыт на GitHub: любой может взять библиотеки и прикрутить их к банковскому приложению, фитнес-трекеру или корпоративному мессенджеру.
Почему эти технологии важны для бизнеса и общества?
Во-первых, пользователи получают персональные функции без страха утечек данных. Во-вторых, разработчики могут внедрять новые ИИ-функции, не храня горы персональных данных и не рискуя попасть под штрафы. И, наконец, компании демонстрируют аудиторам формальные гарантии (дифференциальная приватность, TEE-аттестации) и снижают регуляторные риски.
Как отмечает основатель АО «Нейросети» Сергей Курьян, это серьезный шаг в направлении обеспечения конфиденциальности данных, которые могут стать стандартом в будущем. Важность решения заключается в том, что компания не ограничивается традиционными мерами защиты вроде шифрования данных, а фактически перемещает процесс обучения ИИ с облачных серверов на устройства пользователей. Это означает, что алгоритмы ИИ могут адаптироваться и улучшаться в реальном времени, сохраняя данные под защитой.
«Реализация такой системы, при которой весь сырой контент — будь то текст, изображения или жесты — остается на устройстве, а в облако отправляются только анонимизированные и обезличенные обновления, решает ключевую проблему: серверы больше не имеют доступа к личной информации, а значит, вероятность её утечки снижается. При этом ИИ остается функциональным, а все процессы обучения происходят на уровне устройства, что сохраняет и удобство использования, и безопасность», — поясняет Сергей Курьян.
Чего ждать в сфере защиты данных
По его словам, это отвечает на растущие опасения пользователей по поводу конфиденциальности и утечек данных, происходящих при использовании облачных решений. Системы, подобные Parfait, могут значительно изменить ландшафт AI-разработок, создавая новые стандарты для работы с персональной информацией и укрепляя доверие пользователей к технологиям ИИ. Правда, сама архитектура потребует больших вычислительных мощностей на уровне устройства, что может повлиять на эффективность работы ИИ на менее мощных гаджетах.
Google уже запускает эксперименты по «машинному забыванию» — когда модель умеет стирать чьи-то данные по запросу без полного переобучения. А исследователи продолжают улучшать алгоритмы шумоподавления, чтобы сохранить точность моделей даже при жёстких гарантиях приватности. Главное то, что эпоха, когда приходилось выбирать между умным сервисом и личной тайной, уходит. Parfait показывает: ИИ может быть одновременно полезным и деликатным — это будущее уже загрузилось к вам в карман.
