let
также можно использовать, чтобы избежать проблем с закрытием. Он связывает свежую ценность, а не сохраняет старую ссылку, как показано в примерах ниже.
for(var i = 1; i < 6; i++) {
document.getElementById('my-element' + i)
.addEventListener('click', function() { alert(i) })
}
В коде выше показана классическая проблема закрытия JavaScript. Ссылка на переменную i
хранится в закрытии обработчика кликов, а не на фактическом значении i
.
Каждый обработчик одного клика будет ссылаться на один и тот же объект, потому что есть только один объект-счетчик, имеет 6, поэтому вы получаете по шесть на каждом клике.
Общим решением является обернуть это анонимной функцией и передать i
в качестве аргумента. Эти проблемы также можно избежать, используя let
вместо var
, как показано в коде ниже.
DEMO (проверено в Chrome и Firefox 50)
'use strict';
for(let i = 1; i < 6; i++) {
document.getElementById('my-element' + i)
.addEventListener('click', function() { alert(i) })
}
Короче:
NLTK не совершенен.
blockquote>Примечание:
Начиная с версии NLTK 3.1 функция по умолчанию
pos_tag
больше не является старым английским маринованием MaxEnt .Теперь это теггер персептрона из @ реализации Хоннибала , см.
nltk.tag.pos_tag
>>> import inspect >>> print inspect.getsource(pos_tag) def pos_tag(tokens, tagset=None): tagger = PerceptronTagger() return _pos_tag(tokens, tagset, tagger)
Тем не менее, лучше, но не идеально:
>>> from nltk import pos_tag >>> pos_tag("The quick brown fox jumps over the lazy dog".split()) [('The', 'DT'), ('quick', 'JJ'), ('brown', 'NN'), ('fox', 'NN'), ('jumps', 'VBZ'), ('over', 'IN'), ('the', 'DT'), ('lazy', 'JJ'), ('dog', 'NN')]
В какой-то момент, если кто-то хочет
TL;DR
решения, см. https://github.com/alvations/nltk_cli
В long:
Попробуйте использовать другой теггер (см. https://github.com/nltk/nltk/tree/develop/nltk/tag ), например:
- HunPos
- Stanford POS
- Senna
Использование по умолчанию MaxEnt POS tagger из NLTK, т.е.
nltk.pos_tag
:>>> from nltk import word_tokenize, pos_tag >>> text = "The quick brown fox jumps over the lazy dog" >>> pos_tag(word_tokenize(text)) [('The', 'DT'), ('quick', 'NN'), ('brown', 'NN'), ('fox', 'NN'), ('jumps', 'NNS'), ('over', 'IN'), ('the', 'DT'), ('lazy', 'NN'), ('dog', 'NN')]
Использование тестера PSP в Stanford:
$ cd ~ $ wget http://nlp.stanford.edu/software/stanford-postagger-2015-04-20.zip $ unzip stanford-postagger-2015-04-20.zip $ mv stanford-postagger-2015-04-20 stanford-postagger $ python >>> from os.path import expanduser >>> home = expanduser("~") >>> from nltk.tag.stanford import POSTagger >>> _path_to_model = home + '/stanford-postagger/models/english-bidirectional-distsim.tagger' >>> _path_to_jar = home + '/stanford-postagger/stanford-postagger.jar' >>> st = POSTagger(path_to_model=_path_to_model, path_to_jar=_path_to_jar) >>> text = "The quick brown fox jumps over the lazy dog" >>> st.tag(text.split()) [(u'The', u'DT'), (u'quick', u'JJ'), (u'brown', u'JJ'), (u'fox', u'NN'), (u'jumps', u'VBZ'), (u'over', u'IN'), (u'the', u'DT'), (u'lazy', u'JJ'), (u'dog', u'NN')]
Использование HunPOS (ПРИМЕЧАНИЕ: кодировка по умолчанию - ISO-8859-1, а не UTF8):
$ cd ~ $ wget https://hunpos.googlecode.com/files/hunpos-1.0-linux.tgz $ tar zxvf hunpos-1.0-linux.tgz $ wget https://hunpos.googlecode.com/files/en_wsj.model.gz $ gzip -d en_wsj.model.gz $ mv en_wsj.model hunpos-1.0-linux/ $ python >>> from os.path import expanduser >>> home = expanduser("~") >>> from nltk.tag.hunpos import HunposTagger >>> _path_to_bin = home + '/hunpos-1.0-linux/hunpos-tag' >>> _path_to_model = home + '/hunpos-1.0-linux/en_wsj.model' >>> ht = HunposTagger(path_to_model=_path_to_model, path_to_bin=_path_to_bin) >>> text = "The quick brown fox jumps over the lazy dog" >>> ht.tag(text.split()) [('The', 'DT'), ('quick', 'JJ'), ('brown', 'JJ'), ('fox', 'NN'), ('jumps', 'NNS'), ('over', 'IN'), ('the', 'DT'), ('lazy', 'JJ'), ('dog', 'NN')]
Использование Senna (убедитесь, что у вас установлена последняя версия NLTK, были внесены некоторые изменения в API):
$ cd ~ $ wget http://ronan.collobert.com/senna/senna-v3.0.tgz $ tar zxvf senna-v3.0.tgz $ python >>> from os.path import expanduser >>> home = expanduser("~") >>> from nltk.tag.senna import SennaTagger >>> st = SennaTagger(home+'/senna') >>> text = "The quick brown fox jumps over the lazy dog" >>> st.tag(text.split()) [('The', u'DT'), ('quick', u'JJ'), ('brown', u'JJ'), ('fox', u'NN'), ('jumps', u'VBZ'), ('over', u'IN'), ('the', u'DT'), ('lazy', u'JJ'), ('dog', u'NN')]
Или попробуйте создать лучший теггер POS:
- Ngram Tagger: http://streamhacker.com/2008/11/03/part-of-speech-tagging-with-nltk-part-1/
- Affix / Regex Tagger: http: // st reamhacker.com/2008/11/10/part-of-speech-tagging-with-nltk-part-2/
- Создайте свой собственный Brill (читайте код, это довольно забавный теггер , http://www.nltk.org/_modules/nltk/tag/brill.html ), см. http://streamhacker.com/2008/12/03/part-of -speech-tagging-with-nltk-part-3 /
- Perceptron Tagger: https://honnibal.wordpress.com/2013/09/11/a-good- часть-of-speechpos-tagger-in-about-200-lines-of-python /
- LDA Tagger: http://scm.io/blog/hack/2015 / 02 / lda-намерения /
Жалобы на точность
pos_tag
в stackoverflow включают:
- Пометка POS - NLTK считает, что существительное является прилагательным
- python NLTK POS tagger не ведет себя как ожидалось
- Как получить лучшие результаты с помощью NLTK pos тег
- pos_tag в NLTK не корректно помещает предложения
Проблемы с NLTK HunPos включают:
- Как пометить текстовые файлы с помощью hunpos в nltk?
- Кто-нибудь знает, как настроить класс оболочки hunpos на nltk?
Проблемы с NLTK и тестером POS-терминалов в Stanford включают :
- проблема с импортированием stanford pos tagger в nltk
- Ошибка Java Command в NLTK Stanford POS Tagger
- Ошибка при использовании Stanford POS Tagger в NLTK Python
- Как улучшить скорость с помощью Stanford NLP Tagger и NLTK
- Ошибка в методе Nltk stanford pos: ошибка команды Java
- Создание и использование StanfordTagger в NLTK
- Запуск тестера в NLTK приводит к «недействительному приложению Win32», на Windows