В этом выпуске: интервью с представителем Яндекса о распознаванию речи, предсказание звука материала на основе «немого» видео, туториалы по character-level deep learning и API для построению нейронных сетей под iOS, обзоры генеративных моделей, прогнозирование финансовых временных рядов, «бесконечные» нейронные сети и многое другое.
Статьи, новости, интервью
Мегаинтереснейший проект по предсказанию звука, который издает материал при ударе по нему.
Новая красивая визуализация работы и активаций внутри рекуррентных нейронных сетей прямиком из Гарварда — LSTMVis.
Facebook рассказывает про свой инструментдля понимания текстов.
Предложение от OpenAI поработать над интересными задачами (в основном reinforcement learning) — есть площадка для публикации результатов как на Kaggle.
Интервью с руководителем отдела по речевым технологиям Яндексао распознавании и синтезе речи, биометрии и будущем.
Нейронные сети делают предсказанияна EURO-2016.
Профессор Уэльского университета опровергает теориюо том, что существует «языковой инстинкт».
DeepMind тоже в своем блоге пишето последних результатах в Reinforcement Learning.
Что можно делать годна позиции Data Scientist в StackOverflow.
Как deep learning будет заботиться о природе, сохраняя кораловые рифы.
Программирование
Реализация разных архитектур нейронных сетей для прогнозированияфинансовых временных рядов на Keras.
Туториал по интеграции Torch и OpenCV.
Туториал по data augmentation и fine-tuning в блоге Keras.
Инструмент от Facebookдля обучения игры в Go, на Torch.
Построение нейронных сетей на Swift.
Magenta от Google Brainдля создания своих аудио шедевров.
Про character-level deep learning, и почему по буквам «читать» лучше, чем по словам.
Теория: популярно
Сравнение архитектур сверточных нейронных сетей: от LeNet до ResNet.
Сравнительный пост генеративных моделейот OpenAI.
Переход нейронных сетей от «черных ящиков» до вероятностных моделей.
Доступное описание Inception-ResNet на Хабрахабре.
Веселый ресерчо рекомендации эмоджи к сообщению.
Краткий обзор методов unsupervised learning (все bleeding edge!).
Теория: научно
Учим градиентный спуск градиентным спуском.
Обучение «бесконечнослойных» нейронных сетей (точнее, «бесконечнонейронные», но все равно интересно с точки зрения математики).
ENet — архитектура для real-time сегментации.
Статья про эволюционные алгоритмы для обучения CNN.
Автодополнение кодас помощью рекуррентных нейронных сетей.
Еще одна статья, объясняющая успех RNNв моделировании речи — рекурсивные грамматики и глубокие сети выучивают зависимости между словами лучше, чем марковские процессы.
Если у вас есть интересные материалы, которые не попали в этот дайджест или вы хотите увидеть их в следующем, пишите на rachnogstyle@gmail.com, и мы добавим их.
← Предыдущий выпуск: AI & ML дайджест #0
От редакции:Приглашаем читателей, занятых в AI & ML сфере, принять участие в опросео работе в этой отрасли.