Хорошо
Подробнее о работе
Гарантия сервиса Автор24
Уникальность не ниже 50%
Разработка компонентов модуля для агентного моделирования
на основе обучения с подкреплением
ВВЕДЕНИЕ
ГЛАВА 1. ПОСТАНОВКА ЗАДАЧИ
1.1. Общие сведения о Q-обучении. Обзор алгоритмов
1.2. Постановка задачи разработки модуля
1.3. Выводы
ГЛАВА 2. МАТЕМАТИЧЕСКОЕ ОБЕСПЕЧЕНИЕ БЛОКА МОДЕЛИРОВАНИЯ
2.1. Обучение с подкреплением
2.2. Алгоритмы
2.3. Моделирование
2.4. Выводы
ГЛАВА 3. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ МОДУЛЯ
3.1. Среда проектирования
3.2. Описание программы
3.3. Результаты расчетов
ГЛАВА 4. ЭКОНОМИЧЕСКАЯ ЧАСТЬ
4.1. Организация и планирование работ
4.2. Экономическое обоснование дипломного проекта
4.3. Конкурентоспособность разработки
4.4 . Социально-экономический аспект
4.5. Выводы
ГЛАВА 5. БЕЗОПАСНОСТЬ ЖИЗНЕДЕЯТЕЛЬНОСТИ
5.1. Анализ опасных и вредных производственных факторов, воздействующих на программиста при работе на ЭВМ
5.2. Расчёт местного освещения
5.3. Пожарная безопасность
5.4. Экологическая безопасность
ЛИТЕРАТУРА
Приложение 1
Приложение 2
1.Таха Х. Введение в исследование операций. М.: 1990.
2.Холланд Дж. Генетические алгоритмы // В мире науки.1992 N 2-10.
3.Тарасов В.Б. От многоагентных систем к интеллектуальным организа-циям: философия, психология, информатика, М.-Эдиториал УРСС, 2002.
4.Терехов С.А. Нейро-динамическое программирование автономных агентов. Научная сессия МИФИ-2004. VI - научно-техническая конфе-ренция "Нейроинформатика - 2004". М: МИФИ,2004,с.111-138.
5.Bertsekas D.P., Tsitsitlis J.N. Neuro-Dynamic Programming, Belmont, MA: Athenas Scientific,1996.
6.Sutton, R. S. (1988). “Learning to predict by methods of temporal differ-ences”, Machine Learning, 3: 9-44.
7.Sutton R. S. and Barto A.G. “Reinforcement learning: an intro-duction”, MIT Press, Cambridge, MA, 1998.
8.Rummery G. A. and Niranjan M. “On-line Q-Learning using con-nectionist systems”, CUED/F-INFENG/TR 166, September 1994.
9.Peng, J. And Williams, R.J. (1994). “Incremental multi-step Q-learning”, in W. Cohen and H. Hirsh (eds.), Machine Learning: Proceedings of the Eleventh International Conference (ML94), Mor-gan Kaufmann, New Brunswick, NJ, USA.
10.Bartо A. G., Sutton R. S. And Anderson C. W. (1983). “Neu-ron-like elements that can solve difficult learning control problems”, IEEE Transactions on Systems, Man and Cybernetics, 13: 835 846.
11.Mahadevan S. And Connell J., (1991). “Automatic Programming of Behav-iour-based Robots using Reinforcement Learning”, Artificial intelligence, 55, 2.
12.Tham C. K. And Prager K. W. (1992). “Reinforcement Learning for Multi-linked Manipulator Control”, CUED/G-INFENG/TR 104.
13.Lin-Long-Ji, Mitchell Tom M. “Memory approaches to reinforcement learn-ing in non-Markovian domains”, CMU-CS-92-138, May 1992.
14.Sutton R. S. (1989). ”Implementation details of TD(?) procedure for case of vector predictions and backpropagation”, TN87-509.1, GTE Laboratories.
15.Wilson S. W. (1985), “Knowlege growth in an artificial animal. Proceedings of the First International Conference on Genetic Algorithms and their Applications”.
16.Prescott T. J. And Mayhew J. E. W. (1992). “Obstacles avoid-ance through reinforcement learning”, Advances in Neural Information Processing system 4, Morgan Kaufmann, San Mateo, CA, pp.523-530.
17.Сайт компании Экс Джей Текнолоджис: http://www.xjtek.ru.
18.Wikipedia: Reinforcement learning
19.http://ru.wikiversity.org/wiki/Q-learning+
20.http://ru.wikipedia.org/wiki/Матлаб
Не подошла эта работа?
Закажи новую работу, сделанную по твоим требованиям
Разработка компонентов модуля для агентного моделирования
на основе обучения с подкреплением
ВВЕДЕНИЕ
ГЛАВА 1. ПОСТАНОВКА ЗАДАЧИ
1.1. Общие сведения о Q-обучении. Обзор алгоритмов
1.2. Постановка задачи разработки модуля
1.3. Выводы
ГЛАВА 2. МАТЕМАТИЧЕСКОЕ ОБЕСПЕЧЕНИЕ БЛОКА МОДЕЛИРОВАНИЯ
2.1. Обучение с подкреплением
2.2. Алгоритмы
2.3. Моделирование
2.4. Выводы
ГЛАВА 3. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ МОДУЛЯ
3.1. Среда проектирования
3.2. Описание программы
3.3. Результаты расчетов
ГЛАВА 4. ЭКОНОМИЧЕСКАЯ ЧАСТЬ
4.1. Организация и планирование работ
4.2. Экономическое обоснование дипломного проекта
4.3. Конкурентоспособность разработки
4.4 . Социально-экономический аспект
4.5. Выводы
ГЛАВА 5. БЕЗОПАСНОСТЬ ЖИЗНЕДЕЯТЕЛЬНОСТИ
5.1. Анализ опасных и вредных производственных факторов, воздействующих на программиста при работе на ЭВМ
5.2. Расчёт местного освещения
5.3. Пожарная безопасность
5.4. Экологическая безопасность
ЛИТЕРАТУРА
Приложение 1
Приложение 2
1.Таха Х. Введение в исследование операций. М.: 1990.
2.Холланд Дж. Генетические алгоритмы // В мире науки.1992 N 2-10.
3.Тарасов В.Б. От многоагентных систем к интеллектуальным организа-циям: философия, психология, информатика, М.-Эдиториал УРСС, 2002.
4.Терехов С.А. Нейро-динамическое программирование автономных агентов. Научная сессия МИФИ-2004. VI - научно-техническая конфе-ренция "Нейроинформатика - 2004". М: МИФИ,2004,с.111-138.
5.Bertsekas D.P., Tsitsitlis J.N. Neuro-Dynamic Programming, Belmont, MA: Athenas Scientific,1996.
6.Sutton, R. S. (1988). “Learning to predict by methods of temporal differ-ences”, Machine Learning, 3: 9-44.
7.Sutton R. S. and Barto A.G. “Reinforcement learning: an intro-duction”, MIT Press, Cambridge, MA, 1998.
8.Rummery G. A. and Niranjan M. “On-line Q-Learning using con-nectionist systems”, CUED/F-INFENG/TR 166, September 1994.
9.Peng, J. And Williams, R.J. (1994). “Incremental multi-step Q-learning”, in W. Cohen and H. Hirsh (eds.), Machine Learning: Proceedings of the Eleventh International Conference (ML94), Mor-gan Kaufmann, New Brunswick, NJ, USA.
10.Bartо A. G., Sutton R. S. And Anderson C. W. (1983). “Neu-ron-like elements that can solve difficult learning control problems”, IEEE Transactions on Systems, Man and Cybernetics, 13: 835 846.
11.Mahadevan S. And Connell J., (1991). “Automatic Programming of Behav-iour-based Robots using Reinforcement Learning”, Artificial intelligence, 55, 2.
12.Tham C. K. And Prager K. W. (1992). “Reinforcement Learning for Multi-linked Manipulator Control”, CUED/G-INFENG/TR 104.
13.Lin-Long-Ji, Mitchell Tom M. “Memory approaches to reinforcement learn-ing in non-Markovian domains”, CMU-CS-92-138, May 1992.
14.Sutton R. S. (1989). ”Implementation details of TD(?) procedure for case of vector predictions and backpropagation”, TN87-509.1, GTE Laboratories.
15.Wilson S. W. (1985), “Knowlege growth in an artificial animal. Proceedings of the First International Conference on Genetic Algorithms and their Applications”.
16.Prescott T. J. And Mayhew J. E. W. (1992). “Obstacles avoid-ance through reinforcement learning”, Advances in Neural Information Processing system 4, Morgan Kaufmann, San Mateo, CA, pp.523-530.
17.Сайт компании Экс Джей Текнолоджис: http://www.xjtek.ru.
18.Wikipedia: Reinforcement learning
19.http://ru.wikiversity.org/wiki/Q-learning+
20.http://ru.wikipedia.org/wiki/Матлаб
| Купить эту работу vs Заказать новую | ||
|---|---|---|
| 0 раз | Куплено | Выполняется индивидуально |
|
Не менее 40%
Исполнитель, загружая работу в «Банк готовых работ» подтверждает, что
уровень оригинальности
работы составляет не менее 40%
|
Уникальность | Выполняется индивидуально |
| Сразу в личном кабинете | Доступность | Срок 1—6 дней |
| 2800 ₽ | Цена | от 3000 ₽ |
Не подошла эта работа?
В нашей базе 55021 Дипломная работа — поможем найти подходящую