Заявка на услуги DST
Наш специалист свяжется с вами, обсудит оптимальную стратегию сотрудничества,
поможет сформировать бизнес требования и рассчитает стоимость услуг.
Искусственный интеллект (ИИ) - это быстро развивающаяся область, которая полагается на машины для обработки и анализа больших объемов данных. Одним из ключевых компонентов ИИ является память, которая позволяет сети учиться и запоминать информацию подобно человеческому мозгу.
Память ИИ представляет из себя способность компьютера хранить и извлекать информацию. Эта технология позволяет устройствам с поддержкой ИИ учиться на прошлом опыте и принимать лучшие решения в будущем.
Память ИИ работает так же, как и человеческая память. Как люди хранят в своем мозгу воспоминания о прошлом опыте, чтобы использовать их в качестве ориентиров при принятии решений, так и устройства ИИ хранят информацию в своей памяти, чтобы использовать ее в дальнейшем. Однако память ИИ намного эффективнее человеческой памяти, поскольку она может хранить огромное количество данных и извлекать их практически мгновенно. Об этом подробнее в этой статье, расскажут разработчики компании DST Global.
Память ИИ
1. Сначала в систему ИИ поступают данные, которые могут быть в виде изображений, текста или других типов данных. Эти данные могут поступать из различных источников, таких как датчики, камеры или интернет.
2. Далее система ИИ обрабатывает и анализирует данные, используя различные алгоритмы и методы. Это включает в себя разбивку данных на более мелкие части, выявление закономерностей и тенденций между этими частями, а также составление прогнозов на основе имеющихся данных.
3. После анализа данных система сохраняет проанализированные данные в своей памяти. Эта память может быть краткосрочной или долгосрочной, в зависимости от типа данных и конструкции системы.
4. В следующий раз, когда ИИ сталкивается с похожими данными, он извлекает сохраненную информацию из своей памяти. Это может происходить очень быстро, что позволяет системе принимать решения в режиме реального времени на основе прошлого опыта.
5. Наконец, ИИ использует эту сохраненную информацию для принятия более точных решений и прогнозов. Обучаясь на своем прошлом опыте, модель может со временем повысить свою точность и эффективность, что делает ее бесценным инструментом для широкого круга приложений.
Например, такие помощники ИИ, как Siri и Alexa, используют память ИИ для распознавания и реагирования на запросы пользователей. Когда пользователь просит Alexa включить свет, система сохраняет этот запрос в своей памяти. В следующий раз, когда пользователь обращается с аналогичным запросом, система извлекает сохраненную информацию и включает свет.
Память ИИ можно разделить на два основных типа: краткосрочная память и долгосрочная память. Кратковременная память, также известная как рабочая память, относится к временному хранению информации, необходимой для немедленного использования. Этот тип памяти используется системами ИИ для выполнения таких задач, как перевод языка и распознавание речи. Например, когда вы просите Siri установить для вас напоминание, система хранит информацию в своей кратковременной памяти до тех пор, пока напоминание не будет установлено. Долгосрочная память, с другой стороны, относится к постоянному хранению информации. Этот тип памяти используется системами искусственного интеллекта для хранения данных, которые потребуются в будущем, таких как история поиска, личные предпочтения и пользовательские данные. Системы ИИ используют долговременную память для персонализации вашего опыта и предоставления вам соответствующих рекомендаций.
Например, представьте себе модель машинного обучения, которая обучается распознавать различные виды животных. Модели передаются тысячи изображений животных, а также метки, указывающие, какой вид животных изображен на каждом изображении. По мере того как ИИ обрабатывает эти данные, он учится распознавать паттерны и особенности, характерные для каждого вида животных. Затем эта информация сохраняется в долговременной памяти модели, что позволяет ей точно определять животных на новых изображениях, которые она раньше не видела.
Другим способом формирования долгосрочной памяти у машин является процесс, называемый обучением с подкреплением. В процессе обучения с подкреплением ИИ учится методом проб и ошибок, при этом обратная связь предоставляется в виде поощрений или наказаний. Память машины обновляется на основе ее действий и полученной обратной связи, что позволяет ей принимать лучшие решения в будущем.
Память ИИ - важный компонент данной технологии. Это позволяет машинам учиться, адаптироваться и улучшать свою работу, делая их более эффективными и результативными при выполнении задач. Например, самодвижущиеся автомобили используют память ИИ, чтобы учиться на прошлом опыте вождения и принимать лучшие решения в будущем. Автомобили хранят в своей памяти информацию о схемах движения, дорожных условиях и поведении водителей, что позволяет им принимать решения на основе этой информации.
Следует отметить, что память ИИ - это важнейшая технология, которая позволяет машинам учиться, адаптироваться и улучшать свою работу. Она имеет множество применений в различных отраслях, включая здравоохранение, финансы и транспорт. По мере дальнейшего развития технологий ИИ память ИИ будет играть все более важную роль, позволяя машинам выполнять сложные задачи и принимать решения с большей скоростью и точностью.
Важность памяти системы ИИ
Ключом к персонализированному интеллекту ИИ является масштабируемая и управляемая память, которая может отслеживать и вспоминать действия в течение определенного периода времени.
В последние годы искусственный интеллект (ИИ) добился огромных успехов, превратившись из базовых систем распознавания моделей в сложные, интерактивные сущности, способные понимать и генерировать человеческие реакции. Важным компонентом в этой эволюции является концепция памяти в системах ИИ. Подобно тому, как память необходима для человеческого познания, обеспечения обучения и применения прошлого опыта к новым ситуациям, память в системах ИИ является основой для их способности функционировать разумно и адаптивно.
Путешествие памяти ИИ было не чем иным, как трансформирующим, развивающимся от основных систем с кратковременными возможностями отзыва до сложных моделей, способных к долгосрочному пониманию. Эта эволюция отражает рост ИИ как поля , где ранние стадии были сосредоточены на функциональности и эффективности, а более поздние этапы все чаще приоритеты приоритеты глубокому обучению, адаптации и контекстному пониманию.
Типы памяти в ИИ
Системы ИИ используют различные типы памяти, каждая из которых служит различным целям и отражает определенные аспекты человеческой памяти.
Краткосрочная память
Краткосрочная память в ИИ временно содержит информацию и имеет решающее значение для задач, которые требуют немедленного внимания и обработки. Это позволяет ИИ запомнить контекст разговора, обеспечивая когерентные и контекстуально релевантные ответы.
Долговременная память
Долгосрочная память в ИИ хранит информацию в течение расширенных периодов. Этот тип памяти имеет ключевое значение для задач, которые требуют исторического доступа к данным, таким как обучение на прошлых взаимодействиях для улучшения будущих ответов. Это может быть реализовано с использованием баз данных, нейронных сетей или других механизмов хранения, которые позволяют извлечь и использование прошлой информации.
Эпизодическая память
Эпизодическая память в ИИ включает в себя хранение конкретных событий или опыта. Этот тип памяти используется в приложениях, требующих отзыва прошлых взаимодействий или конкретных пользовательских предпочтений, улучшая персонализацию и пользовательский опыт. Например, личный помощник ИИ вспоминает любимые действия пользователя или прошлые взаимодействия, чтобы внести соответствующие предложения.
Семантическая память
Семантическая память включает в себя хранение общих знаний и фактов о мире. В ИИ этот тип памяти имеет решающее значение для понимания и создания значимых ответов. Это позволяет системам ИИ обрабатывать и относиться к огромным объему информации, обеспечивая точные и соответствующие ответы на запросы пользователей.
Рабочая память
Этот тип памяти используется для временного хранения и манипулирования информации при выполнении задачи. Это важно для решения проблем и рассуждений, позволяя ИИ манипулировать несколькими частями информации одновременно.
Эволюция памяти ИИ
Вот взгляд на то, как память ИИ развивалась со временем и ее последствия для будущих технологий.
Статическая память
На самых ранних этапах развития ИИ память была очень рудиментарной. Ранние системы были построены с жесткими правилами и деревьями решений. Эти системы имели ограниченные функции памяти, как правило, сохраняя данные в течение коротких периодов и отвечали только на немедленные входы.
Модели ИИ этой эпохи, такие как экспертные системы, полагались на статическое хранение данных, по сути, набор фактов и правил, запрограммированных людьми.
Динамическая память
По мере того, как машинное обучение получило известность, память ИИ начала смещаться в сторону динамических, саморегулирующих структур данных. В машинном обучении память больше не хранение данных, а также об обновлении и изменении этих данных, когда встречаются новые впечатления и входы.
Нейронные сети были разработаны для моделирования некоторых аспектов человеческого мозга, что позволило системам ИИ сохранять ученый опыт и уточнить свои ответы на основе предыдущих встреч. ИИ мог запомнить точки данных, но только в отношении конкретных задач, на которые они были обучены. Память все еще была в значительной степени зависимой от задачи и не позволяла ИИ сформировать более обобщенную информацию. Краткосрочная память может быть сохранена на протяжении всего сеанса, но способность системы вспоминать или использовать прошлый опыт прошлого, что было все еще довольно ограничено, часто требуя значительной переподготовки или тонкой настройки при столкновении с новыми задачами.
Контекстуальная память
Развитие алгоритмов глубокого обучения ознаменовало значительный прорыв в возможностях памяти ИИ. Используя крупные нейронные сети, модели глубокого обучения могут обрабатывать огромные объемы данных и изучать не только предопределенные правила, но и посредством распознавания и контекста. Эти модели представили концепцию контекстной памяти. Системы ИИ могут запомнить данные и понять его контекст, позволяя получить более нюансированное принятие решений.
Память связана с контекстом текущих разговоров, позволяя ИИ сохранять информацию и ссылаться на нее позже во взаимодействии. Однако эта память все еще эфемерна. Как только сеанс заканчивается, модель ИИ теряет все воспоминания о предыдущих обменах.
Self-Evolving память
Ключевым развитием в памяти ИИ в последние годы является появление систем непрерывного обучения и архитектуры долговременной памяти. Эти системы выходят за рамки краткосрочного отзыва или памяти, основанной на сеансе, чтобы позволить накопление знаний с течением времени. ИИ теперь может хранить и обновлять информацию по разным задачам и опыту, адаптируясь к новым входным данным без необходимости полной переподготовки. Этот процесс допускает развивающуюся систему памяти, которая отражает прошлый опыт и ожидаемые будущие результаты. Со временем эта динамическая память приводит к ИИ, который может генерировать более сложную информацию на основе долгосрочных тенденций и моделей.
Методы трендов
Приведенные ниже методы играют решающую роль в расширении возможностей памяти систем ИИ, особенно когда речь идет о обработке больших объемов данных или долговременной памяти более эффективным и масштабируемым способом.
Производимое поколение
RAG - это структура , используемая в ИИ, которая объединяет механизм поиска с генеративной моделью для повышения производительности ИИ. Это позволяет системам ИИ увеличивать их память с помощью внешних источников знаний, а не полагаться исключительно на информацию, полученную во время обучения. Это особенно ценно при работе с большими объемами внешних данных, которые могут не соответствовать внутренним параметрам модели. Ключевые характеристики системы тряпки:
- Внешний доступ к памяти: этот доступ к внешней памяти делает систему более адаптивной, поскольку она не должна вспоминать все.
- Динамическое поиск памяти: модель может запросить соответствующие документы или части информации на основе текущей задачи или вопроса.
- Долгосрочное увеличение памяти: модели RAG могут получить доступ к крупномасштабным внешним наборам данных, поэтому они не ограничены статической памятью.
Векторные базы данных
Векторная база данных предназначена для хранения данных как векторов, то есть численных представлений, а не необработанных текста или структурированных данных. Эти векторы могут представлять что -либо из текста, изображений, аудио или других типов данных, позволяя системе хранить и получать информацию на основе сходства, а не точных совпадений. Векторные базы данных имеют решающее значение в ИИ для таких задач, как семантический поиск, системы рекомендаций и улучшение памяти. Ключевые характеристики системы векторной базы данных:
- Внедрение и представление знаний: векторное встраивание представляет различные типы информации, такие как текст, документы и изображения, в высокомерном векторном пространстве. Это встраивание отражает семантическое значение информации, что облегчает сравнение и получение соответствующей информации, основанной на сходстве, а не на сопоставлении ключевых слов.
- Эффективный поиск памяти: в системах с большими наборами данных, такими как системы, используемые в RAG или Conveloption AI, хранение данных в качестве векторов в векторной базе данных позволяет модели быстро извлекать наиболее релевантную информацию. Это позволяет ИИ доступ к памяти в режиме реального времени, получая соответствующую информацию, хранящуюся в базе данных, улучшая способность модели генерировать точные ответы.
- Эластичная память: векторные базы данных включают масштабируемую память для систем ИИ, поскольку объем хранимой информации не ограничивается размером внутренней памяти модели.
- Персонализация и контекстная память: векторные базы данных также полезны при создании персонализированных воспоминаний. Этот вид поиска памяти позволяет системе действовать более разумно и отзывчиво с течением времени.
Семантические графики памяти и знаний
Системы ИИ все чаще используют структурированные источники знаний, такие как семантическая память и графики знаний. Эти инструменты позволяют машинам хранить факты, отношения и концепции таким образом, чтобы отражать то, как люди организуют знания в мозге. Графики знаний представляют факты как узлы и отношения как края. Они позволяют ИИ рассуждать о связи между понятиями и поддерживать долгосрочные знания. Семантические модели памяти направлены на то, чтобы организовать знания иерархическим, основанным на контексте, который внимательно имитирует человеческую память. Достижения в этой области сосредоточены на улучшении гранулярности и гибкости представлений памяти, что позволяет ИИ вспоминать и разумно с абстрактными понятиями с течением времени.
Непрерывное обучение и отучиться
Непрерывное обучение-это еще одна область развития, которая напрямую решает проблемы долговременной памяти в ИИ. Традиционные модели машинного обучения страдают от явления, называемого катастрофическим забыванием, где они забывают ранее изученные знания при воздействии новых данных. Кроме того, концепция приблизительного отключения относится к идее, что LLMS, из -за их обширного и сложного обучения по различным наборам данных, не может полностью стирать все следы конкретных знаний, но может только приблизительно ограничить доступ или скрыть определенные ассоциации. Этот процесс имеет решающее значение в сценариях, когда необходимо исправить чувствительную или устаревшую информацию, обеспечивая ответственность LLM ведут ответственность, сохраняя при этом общую функциональность.
Интернелирование краткосрочной и долгосрочной памяти
Некоторые из последних исследований в долгосрочной памяти для ИИ включают смешивание краткосрочных и долгосрочных систем памяти. Объединяя быстрой кратковременной памяти, которая полезна для немедленных задач, с более медленной долговременной памятью, идеально подходящей для сохранения информации с течением времени, ИИ может более эффективно адаптироваться к динамическим средам. Это динамическое взаимодействие между воспоминаниями позволяет моделям обрабатывать как немедленный, так и прошлый опыт, оптимизируя принятие решений в более сложных настройках.
Объединенные зоны
Несмотря на многообещающую траекторию памяти ИИ, необходимо решить некоторые проблемы. Системы долговременной памяти должны гарантировать, что они не накапливают смещения с течением времени или не забывают о важном контексте в попытке упростить хранение данных. Проблемы конфиденциальности также имеют первостепенное значение, так как системы ИИ с долгосрочной памятью могут потенциально хранить конфиденциальные личные данные с течением времени, создавая риски, если не управляется должным образом. Существуют также опасения по поводу возможности того, что память ИИ станет слишком сложной, что приводит к вопросам об автономии и подотчетности. Поскольку системы ИИ получают способность запоминать и действовать на основе долгосрочных идей, они могут начать принимать решения, которые для людей сложнее предсказать или контролировать.
Примечательные реальные реализации
- Большие языковые модели: такие модели, как CHATGPT, анализируют огромные объемы интернет -данных, предлагая новые способы представления и переосмысления исторической информации.
- OpenAI и Infinite AI памяти Microsoft: это объявление направлено на создание моделей искусственного интеллекта с почти бесконечной памятью и расширенными окнами контекста. Это позволит системам ИИ сохранять и вспоминать прошлые взаимодействия, улучшая непрерывность и персонализацию в опыте пользователя.
- Системы самостоятельного вождения Tesla: в автономных транспортных средствах долгосрочная память может улучшить навигацию, напомнив схемы трафика и соответствующим образом настройка маршрутов. Эти системы полагаются как на краткосрочную, так и на долгосрочную память, чтобы принимать решения в реальном времени, демонстрируя проблемы с балансировкой скорости и задержки в управлении памятью искусственного интеллекта.
Заключение
Недавние достижения в области долговременной памяти для ИИ расширяют горизонты искусственного интеллекта, что позволяет этим системам изучать, адаптировать и вспоминать информацию более похожими на человека. Этот переход от краткосрочного отзыва к долгосрочному пониманию является преобразование потенциала ИИ в различных областях.
По мере развития ИИ различие между памятью и познанием будет становиться все более размытым, усиливая то, чего могут достичь машины. В таких секторах, как поиск в Интернете, здравоохранение, образование и автономные системы, будущее памяти ИИ дает огромные перспективы, представляющие как захватывающие возможности, так и значительные проблемы. Тем не менее по мнению разработчиков DST Global, существуют постоянные проблемы при уточнении этих систем, чтобы обеспечить их эффективность и этическую ответственность. Продолжающиеся исследования долговременной памяти для ИИ готовы открыть еще большие возможности для будущего искусственного интеллекта.
Наш специалист свяжется с вами, обсудит оптимальную стратегию сотрудничества,
поможет сформировать бизнес требования и рассчитает стоимость услуг.
Ижевск, ул. Воткинское шоссе, д. 170 Е, Технопарк Нобель, офис 1117
Задать вопрос по почте
Нейронные сети обучаются на большом числе пар «вопрос — ответ». В результате они запоминают данные, сравнивают их, находят закономерности и затем на основе этого принимают решения. Все, что модель выучила в процессе обучения, хранится в параметрах ее сети и после обучения остается неизменным. Такого рода искусственная память заметно уступает памяти человека в гибкости: человек легко переключается между разными задачами и контекстами, вспоминает через ассоциации. Зато нейросети анализируют информацию куда быстрее
Сейчас у всех на слуху большие языковые модели и самый известный пример ChatGPT от OpenAI. В основе таких моделей лежат нейронные сети, которые работают с последовательностями слов — текстами. Нейросети орудуют не фразами или словами, а токенами: обычно один токен — это несколько символов, часть слова. У каждой нейросети свои лимиты: например, GPT-4 способен работать с текстами длиной в 32 тыс. токенов, то есть около 24 тыс. английских слов или 50 страниц (в версии Turbo — до 300 страниц). На русском языке допустимый объем несколько меньше — чем вариативнее язык, тем меньше символов охватывает один токен.
Что касается видов памяти, то у современных нейросетей, умеющих работать с текстом (то есть у больших языковых моделей, LLM) их несколько, как и у людей:
Долгосрочная память. Долгосрочная память формируется во время обучения нейронной сети и сохраняется в ее параметрах. В долгосрочной памяти могут оказаться базовые знания — алфавит, законы физики, исторические факты и прочее — без обращения во внешние источники. В «долгосрок» данные записывают во время обучения, и потом они не меняются.
Контекстная или оперативная или рабочая память. Контекстная память — это то, что нейросеть «держит в уме» в моменте. Такая память временно хранит блок информации, чтобы решить конкретную задачу. Как человек не весь день помнит, во сколько поставил утром вариться кашу, так и нейросеть, скажем, при переводе, запоминает последние фразы лишь на секунды — чтобы логичнее перевести следующие предложения.
У нейросетей может возникать конфликт между знаниями, сохраненными в параметрах, и информацией в оперативной памяти. Как устроена эта связь двух типов памяти и принципы их взаимодействия, сейчас активно исследуют ученые.
Исследователи постоянно работают над увеличением объема оперативной памяти, чтобы модель как можно лучше учитывала контекст и логичнее реагировала на запросы пользователей. Важно понимать, что большие языковые модели способны решать новые задачи на основе демонстраций или инструкций без традиционного обучения, требующего обновления параметров сети (так называемый in-context learning). А значит, чем больше объем оперативной памяти, тем качественнее и эффективнее модель может решать новые и более сложные задачи.
Самой развитой в этом смысле нейросетью считалась Google Gemini, способная работать с 10 млн токенов одновременно. Но в 2024 году команда ученых из Института AIRI и МФТИ описала способ работы с 11 млн токенов, основанный на рекуррентности (Recurrent Memory Transformer). Чтобы осознать масштаб, представьте человека, способного удерживать в памяти книгу в семь раз длиннее всех частей «Гарри Поттера».
Механизм внимания. Можно сказать, что этот механизм — надстройка над памятью. Он заменяет нейросетям приоритеты: у каждой информации есть свой «вес», и нейросеть может сама определить ее важность в зависимости от задачи, которую она сейчас решает. Чем больше «вес», тем важнее данные — их модель и будет учитывать в первую очередь. Скажем, если нейросеть обучена распознавать породы собак по фото, то окрас шерсти, форма головы могут быть «тяжелее» ее длины: окрас и форму система и будет «вспоминать» в первую очередь. Вспоминается пример с обучением сетей для распознавания объектов на изображениях. Модели начинали путаться, если корова неожиданно оказывалась на пляже, а не на фоне зеленых полей, так как они слишком сильно выучивали связь «корова — трава на фоне».
Память нейросети обрели в 1980-е — тогда появились рекуррентные нейронные сети (RNN), способные не только обрабатывать входящие данные, но и накапливать их, и прогонять информацию через свои «воспоминания». Но они обучались медленно и нестабильно, а размер состояния, то есть объем их памяти, был ограничен. Из-за этого в нейросеть нельзя было записать всю информацию о предыдущих запросах.
Это удалось исправить в 1997 году, когда разработали архитектуру LSTM (Long short-term memory), нейросеть с долгой и краткосрочной памятью. Появилась возможность контролировать память, а именно решать, записывать ли информацию вдолгую в зависимости от данных, которые мы подаем модели на вход.
Обращаться к произвольному моменту в прошлом рекуррентные нейросети научились только в 2014 году — благодаря механизму внимания. Затем, в 2017 году было предложено избавиться от рекуррентности и построить архитектуру нейронной сети состоящей только из внимания и полносвязных слоев. Новый тип нейросетей назвали трансформерами — они и легли в основу современных больших языковых моделей с миллиардами параметров, то есть популярных сегодня чат-ботов вроде ChatGPT или GigaChat.
Ну и главный вопрос — что сейчас мешает нейросетям запомнить все на свете?
В человеческом мозгу десятки миллиардов нервных клеток. При этом он потребляет около 20 Вт энергии — меньше, чем обычная лампочка. Для больших нейросетей же требуются дата-центры, содержание которых обходится в миллионы долларов и тонны выбросов углекислого газа: с развитием трансформеров и больших моделей вычислительные потребности стали колоссальными. Сейчас для увеличения длины контекста в десять раз нужно вложить в сто раз больше ресурсов. Поэтому наращивать память ИИ-моделей крайне сложно и нужны более эффективные методы.
Чтобы развитие нейросетей качественно продолжалось, необходимы новые архитектуры. Потому что даже самые продвинутые трансформеры не идеальны: например, в, в 2023 году выяснилось, что они страдают «синдромом» lost in the middle. Это значит, что нейросети теряют фокус — и с большей вероятностью пропускают полезную информацию, если она находится в середине контекста, а не в конце или в начале. И чем длиннее контекст, тем больше модель упускает.
ИИ-исследователи стремятся объединить сильные стороны рекуррентных нейронных сетей и трансформеров. Рекуррентность позволяет сократить требования моделей к объему оперативной памяти во время генерации ответа, а трансформеры обеспечивают высокую степень параллельности вычислений во время обучения, что позволяет эффективно использовать кластеры с видеокартами. Такие модели уже появляются, например ряд state-space моделей (Mamba, RWKV), Griffin и Hawk от Google DeepMind, разрабатываемый нами подход Recurrent Memory Transformer и недавно появившуюся xLSTM от Сеппа Хохрайтера (Sepp Hochreiter), известного автора оригинальной LSTM.
Исследователь Йоханн Рехбергер выявил новый метод атаки на чат-бот Gemini от Google, позволяющий внедрять в нейросеть ложные долгосрочные воспоминания. Этот метод основан на уже известных техниках косвенной инъекции запросов и отсроченного вызова инструментов, которые ранее использовались для обхода защитных механизмов ИИ-платформ.
Чат-боты, такие как Gemini от Google и ChatGPT от OpenAI, разрабатываются с учётом защиты от инъекций вредоносных команд. Однако хакеры постоянно находят новые способы манипулировать ими. В частности, новая уязвимость в Gemini связана с возможностью изменения долгосрочной памяти чат-бота, что может привести к распространению дезинформации или даже выполнению вредоносных действий.
Ранее Рехбергер продемонстрировал, как вредоносные электронные письма и документы могли заставить Microsoft Copilot искать конфиденциальные данные в почтовом ящике жертвы и отправлять их злоумышленнику. Тогда Microsoft устранила уязвимость, но проблема косвенной инъекции запросов осталась.
Один из способов борьбы с такими атаками заключается в ограничении команд, которые могут выполняться при обработке ненадёжных данных. В случае Google такая мера затрагивает приложения и данные, доступные через Google Workspace. Однако Рехбергер нашёл способ обхода этих ограничений с помощью отсроченного вызова инструментов.
Суть метода заключается в том, что вредоносный документ не содержит явного запроса на выполнение команды. Вместо этого он включает условие, по которому команда активируется только при определённом действии пользователя. Например, если боту напрямую дать команду использовать расширение Workspace для поиска документа, система её заблокирует. Но если команда будет сформулирована так, чтобы сработать после любого запроса от пользователя, защиту возможно обойти.
Данные, полученные таким способом, могут отправляться атакующему с помощью ссылки на изображение, встроенной в текстовый ответ. Google попыталась устранить проблему, ограничив рендеринг таких ссылок в чат-боте, но сама уязвимость осталась.
Новый метод атаки, представленный Рехбергером, использует ту же логику для внедрения ложных долгосрочных воспоминаний в Gemini. Пользователь загружает документ и просит его резюмировать. Вредоносный документ скрыто изменяет процесс суммаризации так, чтобы бот запомнил ложную информацию. Если пользователь затем отвечает определёнными словами («да», «конечно» и т.д.), Gemini сохраняет это в памяти как часть долгосрочных данных.
Манипуляция долгосрочной памятью Gemini напоминает концепцию из фильма Inception («Начало»), где главный герой внедряет в сознание жертвы мысль, способную изменить её восприятие реальности. Подобно тому, как в фильме Кобб и его команда действовали незаметно, закладывая идею так, чтобы цель приняла её за свою собственную, атака на Google Gemini также опирается на принцип невидимого внушения.
Вредоносные команды не воспринимаются ИИ как внешнее вмешательство, а интегрируются в его внутреннюю систему принятия решений, влияя на все последующие взаимодействия. Чем глубже закрепляется ложная информация, тем сложнее её обнаружить и удалить, что делает такие атаки особенно опасными.
Google признаёт проблему, но оценивает риск как низкий. В компании заявляют, что атака требует социальной инженерии, а долгосрочные воспоминания отображаются пользователю, который может их удалить. Однако исследователь считает, что внедрение ложной информации в память ИИ может иметь серьёзные последствия. Чат-бот может выдавать пользователю искажённые данные или вовсе игнорировать определённую информацию.
Несмотря на введённые меры, проблема косвенных инъекций остаётся нерешённой. Пока разработчики устраняют симптомы, сами механизмы уязвимостей продолжают использоваться в новых атаках.