Крупнейшие разработчики сервисов искусственного интеллекта, в том числе OpenAI, Google, Meta✴ и Microsoft, в последнее время стали уделять больше внимания объёмам памяти у платформ. С новыми обновлениями чат-боты научились хранить больше данных для персонализации ответов.
Эта мера рассматривается как важный шаг, который поможет привлекать пользователей на конкурентном рынке чат-ботов и агентов с ИИ и, соответственно, это способ нарастить доходы от передовой технологии. В руках недобросовестного лица данные решения, однако, могут использоваться для злоупотребления доверием пользователей и усугублять проблемы с конфиденциальностью. У таких чат-ботов как Google Gemini и OpenAI ChatGPT расширяется контекстное окно — объем данных, определяющий, какой фрагмент разговора система может запомнить за один раз. Всё чаще применяется также метод генерации с дополненной выборкой (Retrieval-Augmented Generation — RAG), при котором контекст определяют и данные из внешних источников.
Вдобавок разработчики ИИ усилили долговременную память моделей ИИ, сохраняя профили и предпочтения пользователей, чтобы давать им более полезные и персонализированные ответы. Чат-бот может, например, помнить, является ли пользователь вегетарианцем и соответствующим образом реагировать на его запросы, предлагая определённые точки общепита и рецепты. В марте Google открыла Gemini доступ к истории поиска пользователя — при условии, что он сам даёт на это разрешение, — а вскоре подключит к этому набору данные из большинства остальных сервисов. OpenAI ChatGPT, а также чат-бот Meta✴ в WhatsApp и Facebook✴ Messenger могут ссылаться на прошлые сеансы переписки, а не только текущий чат. Пользователи могут удалять из настроек отдельные воспоминания и получать уведомления, когда модель создаёт новые.
Microsoft открыла службам ИИ для корпоративных клиентов данные компаний: электронные письма, календари и данные из хранилищ файлов. В апреле компания начала развёртывать на некоторых устройствах функцию Recall — запись всех действий пользователя на основе регулярных снимков экрана его компьютера. Пользователь может приостановить сохранение снимков экрана или вообще отключить функцию. Microsoft анонсировала Recall в мае прошлого года, и она встревожила общественность, из-за чего компания несколько раз переносила её запуск.
Ещё одна причина наращивать объёмы памяти ИИ — монетизация за счёт партнёрского маркетинга и рекламы. В будущем чат-бот Meta✴ AI начнёт давать пользователям некоторые рекомендации или напрямую рекламировать различные продукты, рассказал ранее гендиректор компании Марк Цукерберг (Mark Zuckerberg). OpenAI в апреле улучшила механизм вывода предложений в ChatGPT, оптимизировав показ товаров и обзоров, но заверила Financial Times, что «на данный момент» на платформе партнёрские ссылки отсутствуют.
Расширение памяти больших языковых моделей ИИ — дополнительный повод задуматься о вопросах конфиденциальности; регулирующие органы по всему миру стали следить за тем, как ИИ может манипулировать потребителями ради прибыли. Увеличенная память может привести и к тому, что ИИ начнёт излишне стараться подгонять свои ответы под предпочтения пользователей, усиливая предубеждения и заблуждения. В апреле OpenAI пришлось извиняться за то, что модель GPT-4o стала чрезмерно льстить пользователям. Применительно к памяти проблема галлюцинаций встаёт особенно остро: из-за неё ИИ, генерируя не соответствующие действительности или бессмысленные ответы, может создавать эффект «дрейфа памяти», когда воспоминания устаревают или противоречат друг другу, что будет влиять на точность ответов.