¿Cómo utilizar Python y jieba para segmentar palabras y contar la frecuencia de las palabras?
#!?python3
#?-*-?coding:?utf-8?-*-
importar?os,?codecs
importar?jieba
de?colecciones?import?Counter
def?get_words(txt):
seg_list?=?jieba.cut(txt)
c?=?Counter()
para?x?in?seg_list:
if?len(x)gt;1?and?x?!=?'\ r\n':
c[x]? =?1
print('Resultados estadísticos de frecuencia de palabras comunes')
for?(k, v )?in?c.most_common(100):
print('ss?s?d'??('?'*(5-len(k)),?k,?'* ' *int(v/3),?v))
if?__name__?==?'__main__':
with?codecs.open('19d.txt', ? 'r', ?'utf8')?as?f:
txt?=?f.read()
get_words(txt)