n_epoch=10
ih=100
ultiprog。t()
#并行cpu的数量可设置为cpu核心数
#定义加载训练文件并对数据格式进行处理的函数,以备使用
defloadfile():
pos=pd。read_excel('pos。xls',header=None,index=None)
neg=pd。read_excel('neg。xls',header=None,index=None)
bined=e((pos[0],neg[0]))
y=e((ype=int),
np。zeros(leype=int)))
&urnbined,y
#定义函数,对句子进行分词,并去掉换行符
&oke):
&=[jieba。lent。replace('n',''))fordot
&]
&
#创建词典,并返回每个词语的索引、词向量以及每个句子所对应的词语索引
&e_diodel=None,
bined=None):
if(biNone)aNone):
}bl
&=Diary()
&。doodel。wv。vocab。keys(),allo>
&rue)
#所有频数超过10的词语的索引
w2indx={v:k+1fensim_dict。items()}
#所有频数超过10的词语的词向量
w2veodel[word]forwordinw2indx。keys()}
defparse_dataset(bined):
data=[]
forsentenbined:
&=[]
forwordience:
try:
&。append(w2indx[word])
&: