Тематическое моделирование

Содержание

Слайд 2

Тематические модели применяются для: выявления трендов в научных публикациях или новостных

Тематические модели применяются для:

выявления трендов в научных публикациях или новостных потоках;


классификации документов и изображений;
семантического информационного поиска, в том числе многоязычного;
обнаружения текстового спама;
в рекомендательных системах.
Применение ВТМ для тематического поиска научных публикаций
Документы представляются векторами, координаты которых соответствуют словам, а значения – статистическим характеристикам слов, например, частотам.
Поиск документов по коротким запросам реализуется путем поиска векторов, в которых часто встречаются слова запроса.
Слайд 3

Вероятностная модель коллекции документов Пусть D – множество (коллекция) текстовых документов,

Вероятностная модель коллекции документов

Пусть D – множество (коллекция) текстовых документов, W

– множество (словарь) всех употребляемых в них терминов [слов или словосочетаний]. Каждый документ d D представляет собой последовательность n терминов (w1, w2,…, wn) из словаря W. Термин может повторяться в документе много раз.
Вероятностное пространство и гипотеза независимости. Предполагается, что существует конечное множество тем Т, и каждое употребление термина w в каждом документе d связано с некоторой неизвестной темой t T. Коллекция документов рассматривается как множество троек (d, w, t), выбранных случайно из дискретного распределения р (d, w, t), заданного на конечном множестве D х W х Т. Документы и термины – наблюдаемые переменные, тема – латентная (скрытая) переменная. Гипотеза о независимости элементов выборки (гипотеза «мешка слов» (bag of words)): порядок терминов в документах не важен для выявления тематики. Порядок документов в коллекции также не имеет значения (гипотеза «мешка документов»).
Постановка задачи тематического моделирования. Построить тематическую модель коллекции документов – значит найти множество тем Т, распределения р (w I t) для всех тем и распределения р ( t I d) для всех документов. «Мягкая» кластеризация означает, что каждый документ или термин не жестко приписывается какой-то одной теме, а распределяется по нескольким темам.
Слайд 4

Гипотеза условной независимости. Появление слов в документе d, относящихся к теме

Гипотеза условной независимости. Появление слов в документе d, относящихся к теме

t, описывается общим для всей коллекции распределением р (w I t) и не зависит от документа.
Вероятностная модель. Согласно формуле полной вероятности и гипотезе условной независимости
р (w I d)= р (t I d) р (w I t)
Алгоритм 1:
Вход: распределения р (t I d), р (w I t).
1 для всех d
задать длину n документа d;
2 для всех i=1…n
выбрать случайную тему t из распределения р(t I d),
выбрать случайный термин w из распределения р(w I t).
Добавить в выборку пару (d, w). Тема забывается.
Выход: выборка пар (di, wi), где i=1, …, n.
Слайд 5

Слайд 6

В вероятностном тематическом моделировании вместо метода наименьших квадратов используется метод максимума

В вероятностном тематическом моделировании вместо метода наименьших квадратов используется метод максимума

правдоподобия.
Лемматизация – это приведение каждого слова в документе к его нормальной форме
Стемминг состоит в отбрасывании изменяемых частей слов (окончаний)
Отбрасывание «запрещенных» слов
Отбрасывание редких слов (встречающихся в документе только 1 раз)
Выделение устойчивых оборотов конкретной предметной области
Алгоритм 1 можно использовать для генерации модельных данных по заданным распределениям
Слайд 7

Вероятностный латентный семантический анализ Предложен Томасом Хофманном. Вероятностная модель появления пары

Вероятностный латентный семантический анализ

Предложен Томасом Хофманном.
Вероятностная модель появления пары «документ-термин»

записывается тремя способами
р(w, d)= р(t) р(d I t) р(w I t)= р(d) р(t I d) р(w I t)= р(w) р(d I t) р(tI w), где р (t) – распределение тем по всей коллекции
Слайд 8

Алгоритм 2

Алгоритм 2

Слайд 9

Иерархические тематические модели Для больших коллекций текстовых документов естественно строить иерархии

Иерархические тематические модели
Для больших коллекций текстовых документов естественно строить иерархии вложенных

друг в друга тем (называемых также категориями или рубриками), чтобы упростить поиск документов.
Иерархия – это общепринятый способ структуризации знаний.
Оптимизация структуры иерархии по коллекции документов – открытая проблема
Слайд 10

Определение тематического дерева Гипотеза о существовании тематического дерева. Рассмотрим дерево с

Определение тематического дерева

Гипотеза о существовании тематического дерева. Рассмотрим дерево с множеством

вершин V и корнем t0 V. Вершины дерева соответствуют темам. Каждой теме t из V соответствует множество ее подтем – дочерних вершин в дереве St V. Каждое ребро дерева соответствует паре «тема-подтема» (t, s), s St. Если St=0, то тема t называется терминальной или листом тематического дерева. Для каждой вершины t в дереве V существует только одна родительская вершина, следовательно, только один путь (t0, …, t) от корня дерева t0 до темы t.
Гипотезы: 1) если пара (d, w) связана с темой t, то она связана и со всеми темами выше вершины t на пути до корня t0.
2) если пара (d, w) не связана с темой t, то она не связана и со всеми подтемами в поддереве ниже вершины t.
Слайд 11

Вероятностная интерпретация отношения «тема-подтема»

Вероятностная интерпретация отношения «тема-подтема»