admin 管理员组文章数量: 1184232
2024年1月15日发(作者:机器人编程软件大全)
可以看到还是很轻松就学出了规律,再看看可视化的权重:
if __name__ == '__main__': (1337) # for reproducibility input_dim = 32 #特征数 N = 10000 #数据集总记录数 class_num = 20 #类别数 inputs_1, outputs = get_data(N, input_dim, class_num) #构造数据集
m = build_model(input_dim,class_num) #构造模型 e(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']) y() ([inputs_1], outputs, epochs=20, batch_size=64, validation_split=0.2) testing_inputs_1, testing_outputs = get_data(1, input_dim, class_num) # Attention vector corresponds to the second matrix. # The first one is the Inputs output. attention_vector = get_activations(m, testing_inputs_1, print_shape_only=True, layer_name='attention_vec')[0].flatten() print('attention =', attention_vector) # plot part. ame(attention_vector, columns=['attention (%)']).plot(kind='bar', title='Attention Mechanism as ' 'a function of input' ' dimensions.') ()
版权声明:本文标题:【深度学习】基于Keras的Attention机制代码实现及剖析——Dense+Atte 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://roclinux.cn/b/1705274884a479372.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论