14 декабря 11:00
Нейросеть DeepMind: в 25 раз меньше GPT-3, но также эффективна
Поделиться
twtg

Британская фирма представила нейросеть RETRO, в которой всего 7 млрд параметров, но это компенсируется базой данных, содержащей около 2 трлн отрывков текста. Производительность RETRO при этом такая же, как у нейросетей, в которых в 25 раз больше параметров. К такому выводу в DeepMind пришли, сравнив результаты RETRO и собственной языковой модели Gopher с 280 млрд параметров.

Поделиться
twtg
Ещё по теме Наука

    Мы используем файлы cookie

    ПАО Сбербанк использует cookie (файлы с данными о прошлых посещениях сайта) для персонализации сервисов и удобства пользователей. Сбербанк серьезно относится к защите персональных данных — ознакомьтесь с условиями и принципами их обработки. Вы можете запретить сохранение cookie в настройках своего браузера.