Показать сообщение отдельно
  #3  
Старый 09.12.2009, 15:28
ziro ziro вне форума
Прохожий
 
Регистрация: 09.12.2009
Сообщения: 6
Репутация: 10
По умолчанию вот еще:))

Эти данные образуют информацию для анализа смысла слов.
На основе этих данных следует образовать словарь. Поэтому надо ещё продумать модель данных словаря - в каком виде хранить информацию из тех 4 пунктов.
---
Затем надо продумать алгоритмы, которые будут готовить данные для словаря. Т. е. это алгоритмы, анализирующие какие-нибудь тексты книг и ведущие подсчёт статистики по словам. Статистика будет выражена в весовых коэффициентах для каждой из связей между словами.
---
Вот примерно в этом направлении надо двигаться. Можно сделать упор не на статистику, а на лингвистику. Но здесь придётся лезть в правила словообразования - это может оказаться заморокой. Тогда в самом языке придётся разбираться...
---
Ещё есть такая штука - нейронные сети. На основе алгоритмов нейронных сетей выполняется, например, анализ изображений. - Для распознавания букв и других изображений. Например, есть сейчас отечественные разработки, которые позволяют распознавать людей по их фотографиям. Т. е. есть одна фотка и прога может очень точно найти этого же человека на других фотографиях в другом ракурсе с другим светом и с другой позиции. Аналогично, нейронные сети применяются для распознавания других объектов (не обязательно графических). Это я всё к тому, что возможно распознавание смысла слова было бы удобно поручить самообучающейся нейронной сети (алгоритму нейронной сети). Нейронные сети по мере обработки информации (это мера их опыта) самообучаются. Т. е. чем больше текстов обработает нейронная сеть, тем более точно она будет распознавать смысл слов. Процесс обучения нейронной сети следует курировать конечно - чтобы её не понесло "в другую степь".
Ответить с цитированием