Развитие технологии генеративного искусственного интеллекта (ИИ) происходит настолько быстро, что люди и бизнес не всегда успевают за ним. Многие компании сталкиваются с вопросом, с чего начать внедрение этой технологии и действительно ли оно им нужно. Алексей Борщов рассказывает о векторах развития генеративного ИИ в ближайшем будущем, которые помогут компаниям ориентироваться в этой области.
Крупные модели станут умнее, но их будет меньше
В настоящее время немногие компании во всем мире обладают необходимой технической экспертизой и вычислительными мощностями, чтобы разрабатывать собственные большие языковые модели (М). Среди известных организаций в мире, таких как OpenAI, Google, Meta, и в России, "Яндекс", есть несколько компаний, которые занимаются этой областью. Прогресс в значительной степени определяется количеством графических процессоров (GPU), доступных компании, так как они играют решающую роль в обучении крупных ИИ-моделей. Однако open source решения всегда будут на шаг позади, но это не снижает их популярности, так как между собственным и облачным решением есть большая разница. Несмотря на то, что облачное решение мощнее и более продвинутое по возможностям, собственное решение позволяет контролировать данные и саму модель.Мультимодальность как преимущество
Большинство инструментов ИИ работают только с определенными форматами контента, такими как текст, изображение или аудио. Однако мультимодальный ИИ способен анализировать и сопоставлять разные типы информации, что позволяет ему отвечать на вопросы, связанные с видео, или подбирать текстовые описания к картинкам. Это открывает новые возможности для более глубокого и комплексного взаимодействия с пользователем.Кастомные LLM-модели
С появлением open source моделей мы заметили рост небольших кастомных языковых моделей, разработанных для конкретных отраслей и задач. Эта тенденция сейчас набирает обороты. Например, есть модели, специализирующиеся на создании LLM для крупных юридических фирм, а также модели, разрабатывающие цифровых компаньонов. Кастомные языковые модели становятся все более популярными, потому что они эффективны, экономичны с точки зрения затрат и могут быть адаптированы для конкретных задач.Новые подходы для точных ответов
Один из трендовых инструментов генеративного ИИ - RAG (поисково-дополненная генерация). Этот инструмент позволяет моделям ИИ использовать информацию, которой они изначально не обучались. В отличие от тонкой настройки, которая изменяет модель, RAG позволяет модели временно использовать внешние данные для ответов, а затем забывать об этом. RAG уменьшает потребность в постоянном переобучении моделей с учетом новых данных, что сокращает вычислительные затраты.Использование внешних баз знаний повышает точность ответов и позволяет пользователям проверять источники ответов ИИ. RAG обеспечивает более эффективное взаимодействие, чем традиционные чат-боты со сценариями, которые ограничены и не могут быстро адаптироваться к новым запросам без ручного обновления. Это позволяет предоставлять персонализированные ответы, сверяясь с последними документами. Кроме того, RAG минимизирует риск утечки конфиденциальных данных или "галлюцинаций", так как модель использует информацию, поддающуюся проверке.
Путь к безопасному ИИ
Без четких регулирующих правил и инструкций по эксплуатации, генеративный ИИ может вызвать негативные последствия, которые перевешивают его плюсы. Отчеты показывают, что большинство компаний осознают значительные угрозы, связанные с генеративным ИИ, но только немногие готовы управлять рисками, связанными с его использованием. Основные проблемы, с которыми сталкиваются компании, включают конфиденциальность данных и киберинциденты, решения сотрудников, основанные на неверной информации, этические риски, связанные с неправомерным использованием, авторское право и интеллектуальная собственность.---Источник: РБК Pro