Множество полезных навыков для голосового помощника ждут вас в Каталоге навыков Алисы.
Ключевые особенности:
- Умные колонки с "Алисой" научились вести персонализированные утренние шоу - ТАСС
- «Алиса» научилась вести утренние шоу
- Слушать утреннее и вечернее шоу Алисы на Яндекс Станции — Справка
- Алиса (голосовой помощник) — Википедия
- 8 новых фишек «Яндекс Станций» и «Яндекс ТВ Станций», которые появились в апреле
- Алиса запустила утреннее шоу с персональными рекомендациями
Читает ли Алиса последние новости? Настраиваем её на телефоне и на компьютере
Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Утренние шоу впервые появились в апреле этого года. О сервисе Прессе Авторские права Связаться с нами Авторам Рекламодателям Разработчикам. Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Теперь голосовой помощник может запускать новостные блоки с девяти станций, включая «Хит ФМ» и «Коммерсантъ FM». Утренние шоу впервые появились в апреле этого года.
Что умеет «Яндекс-станция»: 17 полезных функций и команд для Алисы
Вы можете использовать навыки Алисы для покупки товаров или выполнения задач по дому, управления умными устройствами и воспроизведения музыки. Вы также можете использовать навыки Алисы для игры в игры и для доступа к другим приложениям. Вы можете посмотреть на доступные навыки Алисы, чтобы узнать больше о том, что вы можете сделать с помощью Алисы.
Она читает новости, включает музыку и развлекает слушателей веселыми историями. Для того чтобы она ставила наиболее подходящий контент, стоит указать свои предпочтения в настройках. Тем более что там есть выбор. Сейчас в голосовом помощнике доступны 11 новостных тематик и 21 рубрика для подкастов. Всего у Алисы больше двух тысяч подкастов на разные темы.
Для семей, в которых есть другие Алисы, голосовому ассистенту добавили опциональную активацию по команде «Слушай, Яндекс» [2]. Технологии Алиса встроена в разные приложения Яндекса: поисковое приложение, Яндекс. Навигатор , Лончер и в мобильную и десктопную версии Яндекс.
Браузера [2]. Общение с ассистентом возможно голосом и вводом запросов с клавиатуры. Алиса отвечает или прямо в диалоговом интерфейсе, либо же показывает поисковую выдачу по запросу или нужное приложение. Анализ запроса и формирование ответа Распознать голосовой запрос Алисе помогает технология SpeechKit. На этом этапе происходит отделение голоса от фоновых шумов. Разобраться с акцентами, диалектами, сленгами и англицизмами алгоритмам позволяет накопленная Яндексом база из миллиарда произнесённых в разных условиях фраз [11] [12]. На следующем этапе наделить запрос смыслом и подобрать правильный ответ позволяет технология Turing, своим названием отсылающая к Алану Тьюрингу и его тесту. Благодаря ей «Алиса» может не только давать ответы на конкретные вопросы, но и общаться с пользователем на отвлечённые темы. Для этого текст запроса дробится на токены, как правило, это отдельные слова, которые в дальнейшем отдельно анализируются. Для максимально точного ответа Алиса учитывает историю взаимодействия с ней, интонацию запроса, предыдущие фразы и геопозицию.
Это объясняет тот факт, что на один вопрос разные пользователи могут получить разные ответы [11] [12]. Первоначально нейросеть Алисы обучали на массиве текстов из классики русской литературы , включая произведения Льва Толстого , Фёдора Достоевского , Николая Гоголя , а затем — на массивах живых текстов из Интернета [13]. Как рассказывал глава управления машинного обучения Яндекса Михаил Биленко в интервью изданию Meduza , в ходе ранних тестов в манере общения Алисы появилась дерзость, которая удивляла и забавляла пользователей. Чтобы дерзость не перешла в хамство и чтобы ограничить рассуждения Алисы на темы, связанные с насилием, ненавистью или политикой, в голосового помощника была внедрена система фильтров и стоп-слов [14]. Последний этап — озвучивание ответа — реализуется с помощью технологии Text-to-speech. Основой служат записанные в студии 260 тысяч слов и фраз, которые затем были «порезаны» на фонемы. Из этой аудиобазы нейросеть собирает ответ, после чего интонационные перепады в готовой фразе сглаживаются нейросетью, что приближает речь «Алисы» к человеческой [11] [12] [15]. Навыки Помимо сервисов Яндекса, в Алису могут быть интегрированы сторонние сервисы. В 2018 году компания расширила возможности Алисы через систему навыков, использующих платформу голосового помощника для взаимодействия с пользователем. Навыки — это чат-боты и другие интернет-сервисы, активирующиеся по ключевой фразе и работающие в интерфейсе «Алисы».
В марте 2018 Яндекс открыл для сторонних разработчиков платформу Яндекс. Диалоги , предназначенную для публикации новых навыков и их подключения к Алисе.
Управлять можно голосом: поставить на паузу, продолжить, перемотать назад, выбрать качество или включить субтитры.
Новое на Станциях — Выбирайте, что и в каком порядке слушать в Утреннем шоу Алисы: подкасты на избранные темы, прогноз погоды, навыки, треки или новости из определённых источников. Позже функция станет доступна и на других колонках.
«Алиса» научилась вести утренние шоу
В этой статье мы рассмотрим, что такое утреннее шоу от Алисы, как включить его на Яндекс Станции и как настроить. В умных колонках с Алисой появилось персональное утреннее шоу: теперь можно слушать полезную информацию и музыку, подобранную специально для слушателя. Навык «Утреннее шоу» Алисы идеально подходит для людей, которые хотят быть в курсе всех новостей и интересных мероприятий. Чтобы выбрать тематику новостей и подкастов, нужно просто открыть приложение Яндекс и сказать: «Алиса, открой настройки шоу» или «Алиса, открой настройки новостей». И тогда возникает вопрос: «Читает ли Алиса последние новости так, как она это делала раньше?». так назвали программу, при которой Алиса будет ставить различные треки из плейлиста пользователя на , дополняя их различными комментариями во время пауз, а также сообщая новости на интересующую.
Слушать утреннее и вечернее шоу Алисы на Станции
Работает это примерно так: сначала Алиса рассказывает сводку погоды, потом переходит к самым актуальным новостям, перемешивая их с музыкой. И иногда добавляет к ним подкасты. Звучит живо и увлекательно. Интереснее, чем на многих новостных ТВ-каналах.
Поэтому люди хорошо различают низкочастотные звуки, но высокочастотные сливаются. Мел-спектрограмма как раз позволяет представить звук, акцентируясь на той части спектра, которая значимо различается слухом. Это полезно, потому что мы генерируем звук именно для человека, а не для машины.
Вот как выглядит мел-спектрограмма синтеза текста «Я — Алиса»: У мел-спектрограммы по одному измерению [X на рисунке выше] — время, по другому [Y] — частота, а значение [яркость на рисунке] — мощность сигнала на заданной частоте в определенный момент времени. Проще говоря, эта штуковина показывает, какое распределение по мощностям было у различных частот звука в конкретный момент. Мел-спектрограмма непрерывна, то есть с ней можно работать как с изображением. А так звучит результат синтеза: 3. Новый вокодер Вероятно, вы уже догадались, что мы перешли к использованию нового нейросетевого вокодера. Именно он в реальном времени превращает мел-спектрограмму в голос.
Наиболее близкий аналог нашего первого решения на основе нейросетей, которое вышло в 2018 году — модель WaveGlow. Архитектура WaveGlow основана на генеративных потоках — довольно изящном методе создания генеративных сетей, впервые предложенном в статье про генерацию лиц. Сеть обучается конвертировать случайный шум и мел-спектрограмму на входе в осмысленный wav-сэмпл. За счёт случайного шума на входе обеспечивается выбор случайной wav-ки — одной из множества соответствующих мел-спектрограмме. Как я объяснил выше, в домене речи такой случайный выбор будет лучше детерминированного среднего по всем возможным wav-кам. В отличие от WaveNet, WaveGlow не авторегрессионен, то есть не требует для генерации нового wav-сэмпла знания предыдущих.
Его параллельная свёрточная архитектура хорошо ложится на вычислительную модель видеокарты, позволяя за одну секунду работы генерировать несколько сотен секунд звука. Главное отличие, за счёт которого HiFi-GAN обеспечивает гораздо лучшее качество, заключается в наборе подсетей-дискриминаторов. Они валидируют натуральность звука, смотря на сэмплы с различными периодами и на различном масштабе. Как и WaveGlow, HiFi-GAN не имеет авторегрессионной зависимости и хорошо параллелится, при этом новая сеть намного легковеснее, что позволило при реализации ещё больше повысить скорость синтеза. Кроме того, оказалось, что HiFi-GAN лучше работает на экспрессивной речи, что в дальнейшем позволило запустить эмоциональный синтез — об этом подробно расскажу чуть позже. Схема HiFi-GAN из статьи авторов модели Комбинация этих трёх компонентов позволила вернуться к параметрическому синтезу голоса, который звучал плавно и качественно, требовал меньше данных и давал больше возможностей в кастомизации и изменении стиля голоса.
Параллельно мы работали над улучшением отдельных элементов синтеза: Летом 2019 года выкатили разрешатор омографов homograph resolver — он научил Алису правильно ставить ударения в парах «зАмок» и «замОк», «белкИ» и «бЕлки» и так далее. Здесь мы нашли остроумное решение. В русском языке эти слова пишутся одинаково, но в английском написание отличается, например, castle и lock, proteins и squirrels. Из этого представления легко выделить информацию о том, как произносить омограф, ведь перевод должен различать формы для корректного подбора английского варианта. Буквально на 20 примерах можно выучить классификатор для нового омографа, чтобы по эмбеддингу перевода понимать, какую форму нужно произнести. Летом 2020 года допилили паузер для расстановки пауз внутри предложения.
Язык — хитрая штука. Не все знаки препинания в речи выражаются паузами Например, после вводного слова «конечно» на письме мы ставим запятую, но в речи обычно не делаем паузу. А там, где знаков препинания нет, мы часто делаем паузы. Если эту информацию не передавать в акустическую модель, то она пытается её выводить и не всегда успешно. Первая модель Алисы из-за этого могла начать вздыхать в случайных местах длинного предложения. Для этого мы взяли датасет, разметили его детектором активности голоса, сгруппировали паузы по длительности, ввели класс длины паузы, на каждое слово навесили тэг и на этом корпусе обучили ещё одну голову внимания из тех же нейросетевых эмбеддингов, что использовались для детекции омографов.
Осенью 2020 года мы перевели на трансформеры нормализацию — в синтезе она нужна, чтобы решать сложные случаи, когда символы читаются не «буквально», а по неким правилам. Например, «101» нужно читать не как «один-ноль-один», а как «сто один», а в адресе yandex. Обычно нормализацию делают через комбинацию взвешенных трансдьюсеров FST — правила напоминают последовательность замен по регулярным выражениям, где выбирается замена, имеющая наибольший вес. Мы долго писали правила вручную, но это отнимало много сил, было очень сложно и не масштабируемо. Тогда решили перейти на трансформерную сеть, «задистиллировав» знания наших FST в нейронку. Теперь новые «правила раскрытия» можно добавлять через доливание синтетики и данных, размеченных пользователями Толоки, а сеть показывает лучшее качество, чем FST, потому что учитывает глобальный контекст.
Итак, мы научили Алису говорить с правильными интонациями, но это не сделало ее человеком — ведь в нашей речи есть еще стиль и эмоции. Работа продолжалась. С чувством, толком, расстановкой: стили голоса Алисы Один и тот же текст можно произнести десятком разных способов, при этом сам исходный текст, как правило, никаких подсказок не содержит. Если отправить такой текст в акустическую модель без дополнительных меток и обучить её на достаточно богатом различными стилями и интонациями корпусе, то модель сойдёт с ума — либо переусреднит всё к металлическому «голосу робота», либо начнёт генерировать случайный стиль на каждое предложение. Это и произошло с Алисой: в начале она воспроизводила рандомные стили в разговоре. Казалось, что у неё менялось настроение в каждом предложении.
Вот пример записи с явными перебоями в стилях: Чтобы решить проблему, мы добавили в акустическую модель стили: в процессе обучения нейросети специально ввели «утечку». Суть в том, что через очень lossy-пространство всего 16 чисел на всё предложение разрешаем сетке посмотреть на ответ — истинную мел-спектрограмму, которую ей и нужно предсказать на обучении. За счёт такой «шпаргалки» сеть не пытается выдумывать непредсказуемую по тексту компоненту, а для другой информации не хватит размерности шпаргалки. На инференсе мы генерируем стилевую подсказку, похожую на те, что были в обучающем сете. Это можно делать, взяв готовый стиль из обучающего примера или обучив специальную подсеть генерировать стили по тексту. Если эту подсеть обучить на особом подмножестве примеров, можно получить специальные стили для, скажем, мягкого или дружелюбного голоса.
Или резкого и холодного. Или относительно нейтрального. Чтобы определиться со стилем по умолчанию, мы устроили турнир, где судьями выступали пользователи Толоки. Там не было разметки, мы просто нашли кластеры стилей и провели между ними соревнование. Победил кластер с очень мягкой и приятной интонацией. Дальше началось самое интересное.
Например, сейчас в паузах между новостями и песнями Алиса рассказывает, как с пользой и удовольствием провести время дома. Поэтому мы учим её следить за новостями, развлекать пользователей и создавать приятную атмосферу в доме, и утреннее шоу — первый шаг в этом направлении», — говорит руководитель продукта Андрей Законов. Утреннее шоу доступно в Яндекс. Станции, Станции Мини и других умных колонках с Алисой.
Музыке», где собрана специально отобранная музыка для пользователя. Персональное утреннее шоу уже доступно в «Яндекс.
Станции», «Станции Мини» и других «умных» колонках с «Алисой».
Утреннее шоу «Алисы» стало персональным
Утреннее шоу Алисы — как настроить и использовать Утреннее шоу Алисы позволяет ознакомиться с новейшими новостями, прослушать интересные подкаcты и. Утреннее шоу Алисы — как настроить и использовать Утреннее шоу Алисы позволяет ознакомиться с новейшими новостями, прослушать интересные подкаcты и. Для того чтобы настроить новости на колонке с Алисой Яндекс. В этой статье мы рассмотрим, что такое утреннее шоу от Алисы, как включить его на Яндекс Станции и как настроить. Как включить новости в Яндекс Браузере. Сделать это можно в приложении «Дом с Алисой»: Настройки → Контент → Шоу с Алисой. Афиша мероприятий и новости.
Новый формат контента в утреннем шоу Алисы: истории от навыков
В умных колонках с Алисой появилось персональное утреннее шоу: теперь можно слушать полезную информацию и музыку, подобранную специально для слушателя. Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Теперь голосовой помощник может запускать новостные блоки с девяти станций, включая «Хит ФМ» и «Коммерсантъ FM». Утренние шоу впервые появились в апреле этого года. «Алиса» научилась персонализировать «Утреннее шоу» и включать новости радиостанций Вслед за появлением интерактивных рецептов голосовой помощник «Алиса».