Автор молодец выполнил работу раньше срока. Спасибо
Подробнее о работе
Гарантия сервиса Автор24
Уникальность не ниже 50%
ВВЕДЕНИЕ
Представим, что у нас есть некоторые слова, предложение, текст. Это может быть рассказ, чей-то комментарий под постом или к видеозаписи на YouTube, отзыв к фильму или просто сообщение друга по переписке. И вот, мы хотим понять, какую эмоцию несёт этот текст: счастье, веселье, обида, агрессия, восторг, печаль, симпатия и т. д? Большинство эмоций можно разделить на 2 класса: на позитивные и негативные. Поэтому облегчим задачу и будем классифицировать эмоцию на негативную и позитивную (рисунок 1).
Рисунок 1 - Классификация текста по эмоциональной окраске
В последнее время классификация текста получила большую популяризацию в связи с увеличением объёма данных текстовой информации, которая хранятся в электронном виде в мировом информационном пространстве. Возникает необходимость в системах обработки знаний, их сжатию и упорядочиванию. Однако, большинство систем анализа данных похожи на кору головного мозга: классификация, кластеризация. Система мозга, отвечающее за эмоции, пока не попали в сферу моделирования искусственного интеллекта. Да, компьютер можно обучить распознаванию основополагающих эмоций в тексте. Но если принять точку зрения некоторых когнитивных психологов, что само познание кодируется эмоциями, которые и определяют мыслительный
процесс, то на таком уровне пока рано говорить о полноценном искусственном интеллекте.
ОГЛАВЛЕНИЕ
ВВЕДЕНИЕ 8
1 МЕТОДЫ КЛАССИФИКАЦИИ ТЕКСТА ПО ЭМОЦИОНАЛЬ-
НОЙ ОКРАСКЕ 10
1.1 Анализ задачи классификации текста по эмоциональной
окраске 10
1.1.1 Свёрточные нейронные сети 10
1.1.2 Наивный байесовский классификатор 12
1.1.3 Метод максимальной энтропии 13
1.1.4 Метод опорных векторов 14
1.1.5 Рекуррентные нейронные сети 15
1.1.6 Латентно-семантический анализ 17
1.3 Типы нейронных сетей 20
1.6 Постановка задачи 25
1.7 Выводы по разделу 27
2 МАТЕМАТИЧЕСКАЯ МОДЕЛЬ НЕЙРОННОЙ СЕТИ ДЛЯ
РАСПОЗНАВАНИЯ ЭМОЦИОНАЛЬНОЙ ОКРАСКИ 28
2.1 Создание архитектуры 28
2.2 Алгоритм обучения 28
2.2.1 Алгоритм обратного распространения ошибки 28
2.2.2 Функция потерь 30
2.2.3 Метод оптимизации 32
2.3 Метрики качества 32
2.4 Сети LSTM 34
2.4.1 Ячейка LSTM 34
2.4.2 Вентили LSTM 35
2.5 Выводы по разделу 40
3 МОДУЛЬ И ОПИСАНИЕ ПРОГРАММЫ КЛАССИФИКАЦИИ
ТЕКСТА ПО ЭМОЦИОНАЛЬНОЙ ОКРАСКЕ 42
3.1 Предварительная обработка данных 42
3.1.1 Набор данных 42
3.1.2 Токенизация 43
3.2 Алгоритм обучения 44
3.2.1 Создаём нейронную сеть 44
3.2.2 Обучаем нейронную сеть 44
3.3 Алгоритм работы модуля 47
3.4 Выводы по разделу 49
4 ЭКСПЕРИМЕНТАЛЬНОЕ ИССЛЕДОВАНИЕ МОДУЛЯ РАС-
ПОЗНАВАНИЯ ЭМОЦИОНАЛЬНОЙ ОКРАСКИ 50
4.1 Тестирование модуля на тестовом наборе данных 50
4.2 Тестирование модуля на собственном языке 51
4.3 Выводы по разделу 53
ЗАКЛЮЧЕНИЕ 54
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 55
ПРИЛОЖЕНИЕ 1 ТЕКСТ ПРОГРАММЫ 57
Хорошо написан, сдавался в глубинке. Сдан на 5
Можно использовать
Код программы в комплекте в документе
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1 Cliche, M. BB_twtr at SemEval-2017 Task 4: Twitter Sentiment Analysis with CNNs and LSTMs / Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017) // M. Cliche. - 2017. - P. 573-580.
2 Zhang, Y. A Sensitivity Analysis of (and Practitioners' Guide to) Convolutional Neural Networks for Sentence Classification (arXiv preprint arXiv:1510.03820) / Y. Zhang, B. Wallace - 2015. - P. 1-18.
3 Rosenthal, S. SemEval-2017 task 4: Sentiment Analysis in Twitter (Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017)) / S. Rosenthal, N. Farra, P. Nakov. - 2017. - P. 502-518.
4 Murphy, K.P. Machine Learning: A Probabilistic Perspective / Adaptive Computation and Machine Learning series. The MIT Press. ISBN: 0262018020 // K.P. Murphy. - 2012. - P. 1-9.
5 Nigam, K. Using maximum entropy for text classification / IJCAI99 workshop on machine learning for information filtering // K. Nigam, J. Lafferty, A. McCallum. - 1999. - P. 61-67.
6 Tong, S. Support vector machine active learning with applications to text classification / The Journal of Machine Learning Research // S. Tong, D. Koller. - 2002. - P. 45-66.
7 Elman, J.L. Finding structure in time (Cognitive science) / J.L. Elman. - 1990. - P. 179-211.
8 Нестеров, П. Предобучение нейронной сети с использованием ограниченной машины Больцмана / П. Нестеров - 2016. - С. 1-10.
9 Hochreiter, S. The vanishing gradient problem during learning recurrent neural nets and problem solutions / International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 6 // S. Hochreiter. - Harvard. 1998. - P. 107-116.
10 Hochreiter, S. Gradient flow in recurrent nets: the difficulty of learning long-term dependencies / S. Hochreiter, Y. Bengio, P. Frasconi, J. Schmidhuber. - 2001. - P. 1-12.
11 Werbos, P.J. Backpropagation through time: what it does and how to do it. (Proceedings of the IEEE 78) / P.J. Werbos. - Harvard, 1990. - Issue № 10, - P. 1550-1560.
12 Горелова, А.В. Алгоритм обратного распространения ошибки / А.В. Горелова, Т. В. Любимова - Северо-Кавказский филиал Белгородского государственного технологического университета им. В.Г. Шухова, г. Минеральные Воды, 2015. - C. 1-5.
Не подошла эта работа?
Закажи новую работу, сделанную по твоим требованиям
ВВЕДЕНИЕ
Представим, что у нас есть некоторые слова, предложение, текст. Это может быть рассказ, чей-то комментарий под постом или к видеозаписи на YouTube, отзыв к фильму или просто сообщение друга по переписке. И вот, мы хотим понять, какую эмоцию несёт этот текст: счастье, веселье, обида, агрессия, восторг, печаль, симпатия и т. д? Большинство эмоций можно разделить на 2 класса: на позитивные и негативные. Поэтому облегчим задачу и будем классифицировать эмоцию на негативную и позитивную (рисунок 1).
Рисунок 1 - Классификация текста по эмоциональной окраске
В последнее время классификация текста получила большую популяризацию в связи с увеличением объёма данных текстовой информации, которая хранятся в электронном виде в мировом информационном пространстве. Возникает необходимость в системах обработки знаний, их сжатию и упорядочиванию. Однако, большинство систем анализа данных похожи на кору головного мозга: классификация, кластеризация. Система мозга, отвечающее за эмоции, пока не попали в сферу моделирования искусственного интеллекта. Да, компьютер можно обучить распознаванию основополагающих эмоций в тексте. Но если принять точку зрения некоторых когнитивных психологов, что само познание кодируется эмоциями, которые и определяют мыслительный
процесс, то на таком уровне пока рано говорить о полноценном искусственном интеллекте.
ОГЛАВЛЕНИЕ
ВВЕДЕНИЕ 8
1 МЕТОДЫ КЛАССИФИКАЦИИ ТЕКСТА ПО ЭМОЦИОНАЛЬ-
НОЙ ОКРАСКЕ 10
1.1 Анализ задачи классификации текста по эмоциональной
окраске 10
1.1.1 Свёрточные нейронные сети 10
1.1.2 Наивный байесовский классификатор 12
1.1.3 Метод максимальной энтропии 13
1.1.4 Метод опорных векторов 14
1.1.5 Рекуррентные нейронные сети 15
1.1.6 Латентно-семантический анализ 17
1.3 Типы нейронных сетей 20
1.6 Постановка задачи 25
1.7 Выводы по разделу 27
2 МАТЕМАТИЧЕСКАЯ МОДЕЛЬ НЕЙРОННОЙ СЕТИ ДЛЯ
РАСПОЗНАВАНИЯ ЭМОЦИОНАЛЬНОЙ ОКРАСКИ 28
2.1 Создание архитектуры 28
2.2 Алгоритм обучения 28
2.2.1 Алгоритм обратного распространения ошибки 28
2.2.2 Функция потерь 30
2.2.3 Метод оптимизации 32
2.3 Метрики качества 32
2.4 Сети LSTM 34
2.4.1 Ячейка LSTM 34
2.4.2 Вентили LSTM 35
2.5 Выводы по разделу 40
3 МОДУЛЬ И ОПИСАНИЕ ПРОГРАММЫ КЛАССИФИКАЦИИ
ТЕКСТА ПО ЭМОЦИОНАЛЬНОЙ ОКРАСКЕ 42
3.1 Предварительная обработка данных 42
3.1.1 Набор данных 42
3.1.2 Токенизация 43
3.2 Алгоритм обучения 44
3.2.1 Создаём нейронную сеть 44
3.2.2 Обучаем нейронную сеть 44
3.3 Алгоритм работы модуля 47
3.4 Выводы по разделу 49
4 ЭКСПЕРИМЕНТАЛЬНОЕ ИССЛЕДОВАНИЕ МОДУЛЯ РАС-
ПОЗНАВАНИЯ ЭМОЦИОНАЛЬНОЙ ОКРАСКИ 50
4.1 Тестирование модуля на тестовом наборе данных 50
4.2 Тестирование модуля на собственном языке 51
4.3 Выводы по разделу 53
ЗАКЛЮЧЕНИЕ 54
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 55
ПРИЛОЖЕНИЕ 1 ТЕКСТ ПРОГРАММЫ 57
Хорошо написан, сдавался в глубинке. Сдан на 5
Можно использовать
Код программы в комплекте в документе
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1 Cliche, M. BB_twtr at SemEval-2017 Task 4: Twitter Sentiment Analysis with CNNs and LSTMs / Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017) // M. Cliche. - 2017. - P. 573-580.
2 Zhang, Y. A Sensitivity Analysis of (and Practitioners' Guide to) Convolutional Neural Networks for Sentence Classification (arXiv preprint arXiv:1510.03820) / Y. Zhang, B. Wallace - 2015. - P. 1-18.
3 Rosenthal, S. SemEval-2017 task 4: Sentiment Analysis in Twitter (Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017)) / S. Rosenthal, N. Farra, P. Nakov. - 2017. - P. 502-518.
4 Murphy, K.P. Machine Learning: A Probabilistic Perspective / Adaptive Computation and Machine Learning series. The MIT Press. ISBN: 0262018020 // K.P. Murphy. - 2012. - P. 1-9.
5 Nigam, K. Using maximum entropy for text classification / IJCAI99 workshop on machine learning for information filtering // K. Nigam, J. Lafferty, A. McCallum. - 1999. - P. 61-67.
6 Tong, S. Support vector machine active learning with applications to text classification / The Journal of Machine Learning Research // S. Tong, D. Koller. - 2002. - P. 45-66.
7 Elman, J.L. Finding structure in time (Cognitive science) / J.L. Elman. - 1990. - P. 179-211.
8 Нестеров, П. Предобучение нейронной сети с использованием ограниченной машины Больцмана / П. Нестеров - 2016. - С. 1-10.
9 Hochreiter, S. The vanishing gradient problem during learning recurrent neural nets and problem solutions / International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 6 // S. Hochreiter. - Harvard. 1998. - P. 107-116.
10 Hochreiter, S. Gradient flow in recurrent nets: the difficulty of learning long-term dependencies / S. Hochreiter, Y. Bengio, P. Frasconi, J. Schmidhuber. - 2001. - P. 1-12.
11 Werbos, P.J. Backpropagation through time: what it does and how to do it. (Proceedings of the IEEE 78) / P.J. Werbos. - Harvard, 1990. - Issue № 10, - P. 1550-1560.
12 Горелова, А.В. Алгоритм обратного распространения ошибки / А.В. Горелова, Т. В. Любимова - Северо-Кавказский филиал Белгородского государственного технологического университета им. В.Г. Шухова, г. Минеральные Воды, 2015. - C. 1-5.
Купить эту работу vs Заказать новую | ||
---|---|---|
8 раз | Куплено | Выполняется индивидуально |
Не менее 40%
Исполнитель, загружая работу в «Банк готовых работ» подтверждает, что
уровень оригинальности
работы составляет не менее 40%
|
Уникальность | Выполняется индивидуально |
Сразу в личном кабинете | Доступность | Срок 1—6 дней |
299 ₽ | Цена | от 3000 ₽ |
Не подошла эта работа?
В нашей базе 55687 Дипломных работ — поможем найти подходящую