Пасха без тяжести в желудке: как питаться после окончания Великого Поста? - основные правила
1 апреля, 12:00
В Улан-Удэ и Бурятии ожидается снег и порывистый ветер
2 апреля, 22:00
ДТП в Улан-Удэ: двое подростков на мотоцикле пострадали
2 апреля, 21:09
Пожар в трёхэтажке на улице Толстого в Улан‑Удэ
2 апреля, 20:20
ВТБ: рынок автокредитования ускорил рост в марте на 70%
2 апреля, 19:05
Названы четыре отрасли в России с зарплатой выше 200 тысяч рублей
2 апреля, 17:50
Компенсация за капремонт: кому положена и сколько можно вернуть
2 апреля, 17:30
Адвокаты не смогли вытащить Луковникова из СИЗО в Бурятии
2 апреля, 16:54
Росгвардейцы из Бурятии поддержали земляков на СВО
2 апреля, 16:50
Арбат в Улан-Удэ раскопают на ремонт
2 апреля, 16:23
Два хозяйства Бурятии получат научную поддержку по нацпроекту
2 апреля, 15:50
ТГК-14 вернула жителям Улан-Удэ 117 тыс. рублей за переплату по отоплению
2 апреля, 15:20
В Бурятии опровергли фейк об уничтожении скота
2 апреля, 14:30
Суд обязал власти Улан-Удэ построить школу в новых микрорайонах
2 апреля, 14:01
Украл деньги участника СВО: в Улан-Удэ задержан 18-летний мошенник
2 апреля, 13:42
Режиссёр из Бурятии поставит спектакль в Малом театре
2 апреля, 13:24

Сбер открыл доступ к модели генерации текста для русского языка ruGPT-3.5

Также банк выложил новую версию модели mGPT 13B
Нейросеть Ольга Брютова, ИА UssurMedia
Нейросеть
Фото: Ольга Брютова, ИА UssurMedia

Сбер открыл доступ к нейросетевой модели генерации текста для русского языка ruGPT-3.5 13B. Её дообученная версия лежит в основе сервиса GigaChat (12+). Также банк выложил новую версию модели mGPT 13B (12+) — самую большую из семейства многоязычных моделей Сбера, способную генерировать тексты на 61 языке. Обе модели доступны на HuggingFace (12+), и их могут использовать все разработчики (модели опубликованы под открытой лицензией MIT*). Об этом ИА IrkutskMedia сообщили в пресс-службе банка. 

ruGPT-3.5

Внутри GigaChat находится целый ансамбль моделей — NeONKA (NEural Omnimodal Network with Knowledge-Awareness). Для его создания нужно было выбрать базовую языковую модель, которую потом можно было обучать на инструктивных данных. Russian Generative Pretrained Transformer версии 3.5 с 13 млрд параметров (ruGPT-3.5 13B) — новая версия нейросети ruGPT-3 13B.

Это современная модель генерации текста для русского языка на основе доработанной исследователями Сбера архитектуры GPT-3 от OpenAI. Модель ruGPT-3.5 13B содержит 13 млрд параметров и умеет продолжать тексты на русском и английском языках, а также на языках программирования. Длина контекста модели составляет 2048 токенов. Она обучена на текстовом корпусе размером около 1 Тб, в который, помимо уже использованной для обучения ruGPT-3 большой коллекции текстовых данных из открытых источников, вошли, например, часть открытого сета с кодом The Stack от коллаборации исследователей BigCode и корпусы новостных текстов. Финальный чекпоинт модели — это базовый претрейн для дальнейших экспериментов. 

Модель также доступна на российской платформе ML Space в хабе предобученных моделей и датасетов DataHub. В обучении модели участвовали команды SberDevices и Sber AI при поддержке Института искусственного интеллекта AIRI.

mGPT

Также в открытом доступе опубликована многоязычная модель mGPT 13B под открытой лицензией MIT. Версия mGPT 13B содержит 13 млрд параметров и способна продолжать тексты на 61 языке, включая языки стран СНГ и малых народов России. Длина контекста модели составляет 512 токенов. Она была обучена на 600 Гб текстов на разных языках, собранных из очищенных и подготовленных датасетов multilingual C4 и других открытых источников.

Модель может использоваться для генерации текста, решения различных задач в области обработки естественного языка на одном из поддерживаемых языков путём дообучения или в составе ансамблей моделей.

Модель также доступна на российской платформе ML Space в хабе предобученных моделей и датасетов DataHub. 

"Сбер как ведущая технологическая компания выступает за открытость технологий и обмен опытом с профессиональным сообществом, ведь любые разработки и исследования имеют ограниченный потенциал в замкнутой среде. Поэтому, мы уверены, что публикация обученных моделей подстегнёт работу российских исследователей и разработчиков, нуждающихся в сверхмощных языковых моделях, создавать на их базе собственные технологические продукты и решения. Пробуйте, экспериментируйте и обязательно делитесь полученными результатами", — сказал старший вице-президент, CTO, руководитель блока "Технологии" Сбербанка Андрей Белевцев. 

*Лицензия MIT (англ. MIT License) — лицензия открытого и свободного программного обеспечения, разработанная Массачусетским технологическим институтом. 

147016
48
5
Игра "Вордли" — угадай слово!