&。append(0)
data。appe)
&a
bi(bined)
#每个句子所含词语对应的索引
bined=sequence。pad_sequenaxlen=maxlen)
&urnw2indx,w2vebined
else:
print("Nodataprovided。。。")
#定义词向量函数,读取训练好的词向量模型。调用创建词典的函数
#返回每个词语的索引、词向量以及每个句子所对应的词语索引
defword2vebined):
model=Word2Vec。load('word2vec_model。pkl')
&,word_vebined=
&ionaries(model=model,bined=bined)
&ur,word_vebined
&a(i,word_vebined,y):
#所有单词的索引数,频数小于10的词语索引为0,所以加1
n_symbols=le)+1
#索引为0的词语,词向量全为0
embeddis=np。zeros((n_symbols,vocab_dim))
#从索引为1的词语开始循环,每个词语对应到它的词向量
forword,indexiems():
embeddis[index,:]=word_vectors[word]
x_trairairai(bined,y,
&_size=0。2)
print(x_trairain。shape)
&urnn_symbols,embeddirain,y_trai
#定义网络结构
&rain_lstm(n_symbols,embeddis,
x_train,y_trai):
print("DefiningaSimpleKerasModel。。。")
&ial()#使用序贯模型
model。add(Embedding(output_dim=vocab_dim,
input_dim=n_symbols,
mask_zero=True,
&s=[embeddis],