Книга "Глубокое обучение с подкреплением. AlphaGo и другие технологии" (Максим Лапань)
Эта книга - подробное руководство по новейшим инструментам глубокого обучения с подкреплением и их ограничениям. Мы реализуем и проверим на практике методы кросс-энтропиии итерации по ценностям (Q-learning), а также градиенты по стратегиям.
Для экспериментов используются самые разные среды обучения с подкреплением (RL), начиная с классических CartPole и GridWorld и заканчивая эмуляторами Atari и средами непрерывного управления (на основе PyBullet и RoboSchool). Множество примеров основано на нестандартных средах, в которых мы с нуля разработаем модель окружения.
В этой книге
- Вы узнаете, какое место в контексте глубокого обучения занимают методы RL, реализуете сложные модели глубокого обучения.
- Изучите основу RL: марковские процессы принятия решений.
- Рассмотрите примеры реализации методов RL: метод кросс-энтропии, DQN, A3C, TRPO, PPO, DDPG, D4PG и других.
- Узнаете, как работать с дискретными и непрерывными пространствами действий в различных средах.
- Увидите, как разработать систему, обучающуюся играм Atari, используя обучение с подкреплением.
- Создадите собственную среду по модели OpenAI Gym для обучения биржевого агента.
- Реализуете метод AlphaGo Zero для игры в Connect4.
- Познакомитесь с применением RL в обработке речи: узнаете, как обучить диалогового бота на фразах из кинофильмов.
| 1 | Краткое наименование | Книга "Глубокое обучение с подкреплением. AlphaGo и другие технологии" (Максим Лапань) |
|---|---|---|
| 2 | Описание | Эта книга - подробное руководство по новейшим инструментам глубокого обучения с подкреплением и их ограничениям. Мы реализуем и проверим на практике методы кросс-энтропиии итерации по ценностям (Q-learning), а также градиенты по стратегиям. Для экспериментов используются самые разные среды обучения с подкреплением (RL), начиная с классических CartPole и GridWorld и заканчивая эмуляторами Atari и средами непрерывного управления (на основе PyBullet и RoboSchool). Множество примеров основано на нестандартных средах, в которых мы с нуля разработаем модель окружения. В этой книге - Вы узнаете, какое место в контексте глубокого обучения занимают методы RL, реализуете сложные модели глубокого обучения. - Изучите основу RL: марковские процессы принятия решений. - Рассмотрите примеры реализации методов RL: метод кросс-энтропии, DQN, A3C, TRPO, PPO, DDPG, D4PG и других. - Узнаете, как работать с дискретными и непрерывными пространствами действий в различных средах. - Увидите, как разработать систему, обучающуюся играм Atari, используя обучение с подкреплением. - Создадите собственную среду по модели OpenAI Gym для обучения биржевого агента. - Реализуете метод AlphaGo Zero для игры в Connect4. - Познакомитесь с применением RL в обработке речи: узнаете, как обучить диалогового бота на фразах из кинофильмов. |
| 3 | Размеры упаковки (измерено в НИКСе) | 23.3 x 16.6 x 2.1 см |
| 4 | Вес брутто (измерено в НИКСе) | 0.644 кг |
| 5 | Автор | Лапань М. |
| 6 | Серия | Для профессионалов |
| 7 | ISBN | 978-5-4461-1079-7 |
| 8 | Количество страниц | 496 |
| 9 | Год издания | 2020 |
| 10 | Обложка | Мягкая обложка |
| 11 | Издательство | ПИТЕР |
| 12 | Рекомендуемый возраст | 16+ |
| 13 | Торклиз/Инфо:ПИТЕР_vndr_site_краткое_описание | Эта книга - подробное руководство по новейшим инструментам глубокого обучения с подкреплением и их ограничениям. Мы реализуем и проверим на практике методы кросс-энтропиии итерации по ценностям (Q-learning), а также градиенты по стратегиям. Для экспериментов используются самые разные среды обучения с подкреплением (RL), начиная с классических CartPole и GridWorld и заканчивая эмуляторами Atari и средами непрерывного управления (на основе PyBullet и RoboSchool). Множество примеров основано на нестандартных средах, в которых мы с нуля разработаем модель окружения. В этой книге - Вы узнаете, какое место в контексте глубокого обучения занимают методы RL, реализуете сложные модели глубокого обучения. - Изучите основу RL: марковские процессы принятия решений. - Рассмотрите примеры реализации методов RL: метод кросс-энтропии, DQN, A3C, TRPO, PPO, DDPG, D4PG и других. - Узнаете, как работать с дискретными и непрерывными пространствами действий в различных средах. - Увидите, как разработать систему, обучающуюся играм Atari, используя обучение с подкреплением. - Создадите собственную среду по модели OpenAI Gym для обучения биржевого агента. - Реализуете метод AlphaGo Zero для игры в Connect4. - Познакомитесь с применением RL в обработке речи: узнаете, как обучить диалогового бота на фразах из кинофильмов. |
Xарактеристики, комплект поставки и внешний вид данного товара могут отличаться от указанных или могут быть изменены производителем без отражения в каталоге.
Производитель/Адрес: Планет Технолоджи Корпорейшн. 11Ф., Не 96МетроМинqуан РД., К Синьдянь Н., Новый Тайбэй 231, Тайвань (Р. О. Ц)С. АОС Интернешнл (Европ) БВ, Барбара Строззилан 386 НЛ-1083 Амстердам, НидерландыAOC International (Europe) BV, Barbara Strozzilaan 386 NL-1083 HN Amsterdam The Netherlands Страна производства: Китай Импортер: ООО Гигамаркет г.Минск, ул. Грибоедова 1-191В папку сравнения