自动写诗APP项目、基于python+Android实现(技术:LSTM+Fasttext分类+word2vec+Flask+mysql)第三节

58 篇文章 0 订阅
订阅专栏
25 篇文章 1 订阅
订阅专栏
7 篇文章 0 订阅
订阅专栏

二、用户主题词分类,相似词生成

1.word2vec模型原理

      在主题词分类、候选词生成、选取时,都使用了word2vec模型。word2vec模型主要包含两部分:跳字模型(skip-gram)和连续词袋模型(CBOW),和两种高效训练的方法:负采样(negative sampling)和层序softmax(hierarchical softmax)。

word2vec词向量可以较好地表达不同词之间的相似度和类比关系。其主要是通过训练神经网络语言模型,即CBOW和Skip-gram模型而得到的。这个模型的输出并不需要,而模型中第一个隐含层中的参数权重,即参数矩阵才是我们需要的word2vec词向量。它的每一行就是词典中对应词的词向量,行数就是词典的大小。

CBOW模型和skip-gram的结构如下图所示:

                                                        

             CBOW结构图                                                                                                                       skip-gram结构图

CBOW是一个三层神经网络。模型的特点是输入已知上下文,输出对当前单词的预测。CBOW中,w(t)代表当前词语位于诗句中的位置t,同理定义其他记号。在窗口内,除了当前词语之外的其他词语共同构成上下文。

其学习目标是最大化对数似然函数:

                                                          

输入层:Context(w)是上下文词语的词向量,也是CBOW模型的一个参数。训练开始的时候,词向量是个随机值,随着训练的进行而不断被更新。训练CBOW模型时,词向量只是个副产品,最终训练得到的模型此处我们并不需要。

投影层:对向量做加法。

输出层:一个概率分布w(t),表示词典中每个词出现的概率。

        训练完成后第一个全连接层的参数就是word embedding。Skip-gram只是逆转了CBOW的因果关系而已,就是已知当前词语,预测上下文。

负采样(negative sampling)和层序softmax,是用来提高训练速度并且改善所得到的词向量质量的一种方法。不同于每个训练样本更新所有的权重,负采样每次让一个训练样本仅更新小部分的权重,这样便可以降低梯度下降过程中的计算量。

 

2、word2vec模型应用

训练模型使用的是word2vec工具库中的Word2Vec()函数。在此项目中模型设置了以下几个参数:

Sentences:分析的预料

size=150:词向量的维度

window=5:词向量上下文最大距离

sg=1:0为CBOW模型,1为Skip-Gram模型

hs=1:0为负采样,1为Hierarchical softmax

min_count=8:计算词向量的最小词频,可以去掉一些生僻词

iter=20:随机梯度下降法中迭代的最大次数

alpha=0.0025:迭代的初始步长

min_alpha=0.005:最小迭代步长,随机梯度下降法,迭代中步长逐步减小

        使用维基百科的word2vec模型时,在word2vec工具库中调用了similarity(word1,word2)函数,来计算2个词的相似度。返回值在[-1,1]之间。因为计算的是2个词向量的余弦值,即通过计算两个向量的夹角 余弦值来评估他们的 相似度

例如:

边塞、大漠:0.6080173

边塞、田园:0.27724376

从中可见,边塞、大漠2词,和边塞、山水2词相比,前者的相似度还是较大的。虽然概率的对比效果不是很明显,但也是能够判别用户输入的主题词所属类别的。此处训练的语料是维基百科,语料库是很大的,且文本内容包含了各个方面,大多是对词的定义解释,并不针对于某一领域,并且训练时设置的各个参数,都会对词的相似性计算产生影响。因此,计算出来的相似度准确性上往往有些差异,但大体上是差不多的,足以判别主题词所属类别。

用维基百科预料训练的word2vec模型计算“边塞”主题词与5类诗的15个关键词的相似度值:

                                         

从“边塞”与5类诗的15个关键词的相似度值,可以确定该主题词最可能所属于“边塞征战”类诗。
计算词的相似词函数为:

most_similar(key_word,topn=N),
key_word为指定的关键词
topn指定与关键词最相似的几个词

3、用户主题词分类,相似词生成的具体代码实现:

# coding=gbk
"""
    word2vec 模型
    1.根据用户输入关键词判断其所属类别,用wiki_model(以维基百科为语料得到预测模型)
      本来想着用全部诗歌数据集作为语料,但实践发现,若用户输入的关键词不在诗歌中(ep:壮志难酬)
      则模型无法实施预测,根本原因语料数据太小,无法加载大量词汇
    2.根据判断后的所属类别,分别生成5类诗的 ***.model ,以所属类别的 .model来预测与用户关键词
      最相近的 6 个词,去重后用作诗中每句的备选开头字
"""
from config import *

class Word2vec_similar():
    # 处理数据(若分类已处理过,则不用再次处理)
    def file_deal(self,path_before,path_after):
        # 处理停用词
        stop_word = []
        with open("Data/Stopwords.txt",'r',encoding='utf-8') as f_reader:
            for line in f_reader:
                line = str(line.replace('\n','').replace('\r','').split())
                stop_word.append(line)
        stop_word = set(stop_word)

        rules = u'[\u4e00-\u9fa5]+'
        pattern = re.compile(rules)
        f_write = open(path_after, 'a',encoding='utf-8')
        with open(path_before, 'r', encoding='utf-8') as f_reader2:
            for line in f_reader2:
                title,author,poem = line.strip().split("::")
                poem = poem.replace('\n','').replace('\r','').split()
                poem = str(poem)
                poem = ' '.join(jieba.cut(poem))
                seg_list = pattern.findall(poem)

                word_list = []
                for word in seg_list:
                    if word not in stop_word:
                        word_list.append(word)
                line = " ".join(word_list)
                f_write.write(line + '\n')
                f_write.flush()
            f_write.close()

    """"
    Word2vec 训练模型参数
    sentences 分析的预料,可以是一个列表,或从文件中遍历读出
    size :词向量的维度, 默认值 100 , 语料> 100M, size值应增大
    window: 词向量上下文最大距离,默认 5,小语料值取小
    sg: 0--> CBOW模型    1--> Skip-Gram模型
    hs: 0 负采样 , 1 Hierarchical Softmax
    negative : 使用负采样 的个数, 默认 5
    cbow_mean:  CBOW中做投影,默认 1,按词向量平均值来描述
    min_count: 计算词向量的最小词频 ,可以去掉一些生僻词(低频),默认 5
    iter:随机梯度下降法中迭代的最大次数,默认 5,大语料可增大
    alpha: 迭代的初始步长,默认 0.025
    min_alpha:最小迭代步长,随机梯度下降法,迭代中步长逐步减小
    """
    def practice_model (self ,path_6shi_deal, path_save_key):
        # path 全唐诗路径(处理后的) ,path_save_key 生成模型后保存的路径
        path = path_6shi_deal
        sentences = word2vec.Text8Corpus (path)  # 加载文件

        # 调参 iter 训练轮次    size 大小
        # 全部诗个模型性 iter = 20 ,size = 300
        # 其余5类是模型  iter = 20 , size = 200
        model = word2vec.Word2Vec(sentences, iter=20, min_alpha=0.005, min_count=8,size=150)
        # 保存模型   path_save模型路径
        path_save = path_save_key
        model.save (path_save)

    # 返回 6 个相似词
    def similar_6words(self,key_word, label):
        if label == '边塞征战':
            path_save = "Data\Class_model\Keyword_biansai.model"
        elif label == '写景咏物':
            path_save = "Data\Class_model\Keyword_jingwu.model"
        elif label == '山水田园':
            path_save = "Data\Class_model\Keyword_shanshui.model"
        elif label == '思乡羁旅':
            path_save = 'Data\Class_model\Keyword_sixiang.model'
        else:
            path_save = "Data\Class_model\Keyword_yongshi.model"
        # 维基百科 2 词 相似度计算
        model = word2vec.Word2Vec.load(path_save)
        re_word = []
        # 异常处理,当语料中无此关键词时,先取词前2个字,若还没有,取第一个字
        try:
            similary_words = model.most_similar(positive=[key_word], topn=6)
        except:
            key_word = key_word[0:2]
            try:
                similary_words = model.most_similar(positive=[key_word], topn = 6)
            except:
                key_word = key_word[0]
                similary_words = model.most_similar(positive=[key_word], topn=6)

        print(similary_words)
        for e in similary_words:
            print(e[0],e[1])
            re_word.append(e[0])
        return re_word

    # 计算 2 词之间的相似度
    def class_tags(self,str1):
        # 以全唐诗为语料,计算2词相似度(不用,语料少)
        # path_save = 'E:\Desk\MyProjects\Python/NLP_Demo1\File_jar\data_dir\Quanshi_Judge_6class.model'

        # 5类诗的主题词,用于与用户输入的关键词进行相似度计算,判断类别--》5*15 二维矩阵
        Themeword = [['' for i in range (5)] for i in range (15)]
        Themeword[0] = ['建功立业', '壮志', '报国', '厌战', '苦寒', '渴望', '和平', '琵琶', '胡琴', '边塞', '干戈', '玉门关', '楼兰', '天山', '征战']
        Themeword[1] = ['梅', '竹', '菊', '石', '柳', '松', '高尚', '纯洁', '乐观', '坚强', '高洁', '德馨', '坚韧', '磊落', '正直']
        Themeword[2] = ['山', '水', '田园', '隐逸', '世俗', '自然', '闲适', '高洁', '理想', '追求', '淡泊', '热爱', '恬静', '生活', '哲理']
        Themeword[3] = ['漂泊', '仕途', '作客', '离乱', '家书', '孤独', '难眠', '远望', '思乡', '怀念', '大雁', '秋思', '羁旅', '秋风', '红豆']
        Themeword[4] = ['感慨', '兴衰', '古今', '英雄', '建功立业', '物是人非', '古迹', '兴亡', '商女', '怀古', '宫', '亭', '寺庙', '赤壁', '无奈']

        # 维基百科计算2个词的相似度
        wiki_path_model = "Data\Class_model\wiki_model\wiki_corpus.model" # 加载训练好的模型wiki_corpus.model
        model2 = word2vec.Word2Vec.load (wiki_path_model)
        sum_similar = [0 for i in range(5)]
        for i in range(5):
            for j in range(15):
                # 异常处理,解决 wiki_model中没用此关键词的情况
                # 异常处理,当语料中无此关键词时,先取词前2个字,若还没有,取第一个字
                flag = False
                try:
                    sim_value = model2.similarity(str1, Themeword[i][j])
                    flag = True
                except:
                    print("Error")
                    str1 = str1[0:2]
                    try:
                        sim_value = model2.similarity(str1, Themeword[i][j])
                        flag = True
                    except:
                        str1 = str1[0]

                if flag == False:
                    sim_value = model2.similarity(str1, Themeword[i][j])
                sum_similar[i] += sim_value

        max_value = max(sum_similar) #  选出最相似的那类
        similar_index = sum_similar.index(max_value) # 确定是哪类的标签
        label_tags = ["边塞征战", "写景咏物", "山水田园", "思乡羁旅", "咏史怀古"]
        return label_tags[similar_index]

    # 选择《诗学含英》中的6个与主题词最相似的标题词
    def label_offen_words(self,character):
        before_key = 6
        title =[]
        word_list = []
        shi_xue_han_ying_path = 'Data/Shi_xue_han_ying.txt'
        with open(shi_xue_han_ying_path,'r',encoding='urf-8') as f_reader:
            for line in f_reader:
                t,w = line.split("::")
                title.append(t)
                word_list.append(w)
        # 维基百科的模型
        path_save = 'Data/Class_model/'
        # 加载训练好的模型 wiki_corpus.model
        model = word2vec.Word2Vec.load(path_save)
        similary_6value = [0 for i in range(len(title))]
        for i in range(len(title)):
            try:
                similary_6value[i] = model.similarity(character)
            except Exception as e:
                character  =character[0:2]
                try:
                    similary_6value[i] = model.similarity(character)
                except :
                    character = character[0]

        similary_6value = np.array(similary_6value)
        # 返回一个排序后的数组的索引, 倒序-截取数组下标值
        max_6value_id = similary_6value.argsor()[::-1][0:before_key]
        word_6list = ""
        for i in range(before_key):
            word_6list += "".join(word_list[max_6value_id[i]])

        word_6list = word_6list.replace("\n", "")
        word_6list = set(word_6list)
        return word_6list
    # 训练生成 5 类诗歌的word2vec模型
    def train_6poems_word2vec_model(self):
        ws = Word2vec_similar ()
        # path1..,path1_save_model ,生成各类诗的word2vec的模型
        path1 = 'Data\Generate_poems_jar/biansai.txt'
        path11 = "Data\Class_model\Class_before_dealed_data/biansai.txt"
        ws.file_deal(path1,path11)
        path1_save_model = 'Data\Class_model/Keyword_biansai.model'

        path2 = 'Data\Generate_poems_jar/jingwu.txt'
        path22= "Data\Class_model\Class_before_dealed_data/jingwu.txt"
        ws.file_deal (path2, path22)
        path2_save_model = 'Data\Class_model/Keyword_jingwu.model'

        path3 = 'Data\Generate_poems_jar/shanshui.txt'
        path33 = "Data\Class_model\Class_before_dealed_data/shanshui.txt"
        ws.file_deal (path3,path33)
        path3_save_model = 'Data\Class_model/Keyword_shanshui.model'

        path4 = 'Data\Generate_poems_jar/sixiang.txt'
        path44 = "Data\Class_model\Class_before_dealed_data/sixiang.txt"
        ws.file_deal (path4, path44)
        path4_save_model = 'Data\Class_model/Keyword_sixiang.model'

        path5 = 'Data\Generate_poems_jar/yongshi.txt'
        path55 = "Data\Class_model\Class_before_dealed_data/yongshi.txt"
        ws.file_deal (path5, path55)
        path5_save_model = 'Data\Class_model/Keyword_yongshi.model'
        # 训练每类的模型
        ws.practice_model(path1, path1_save_model)
        ws.practice_model(path2, path2_save_model)
        ws.practice_model(path3, path3_save_model)
        ws.practice_model(path4, path4_save_model)
        ws.practice_model(path5, path5_save_model)

    #按词(字)频 进行云图展示
    def Picture_file(self,text_words,label):  #text_words文字总数,label云图标题
        # 定义保存图片的绝对路径,云图背景
        file_path = r'Data\Class_model\Cloud_picture\\'
        # 把路径地址字符串转换为文件路径
        d = path.dirname(file_path)
        backgroug_Image = np.array(Image.open(path.join(d,'cloud.png')))
        wc = WordCloud(
            background_color='white',  # 背景颜色
            mask=backgroug_Image,  # 设置背景为指定图片
            # font_path="‪C:\Windows\Fonts\汉仪雪君体简.ttf",  # 设置字体
            font_path="‪C:\Windows\Fonts\simkai.ttf",
            max_words=2000,  # 最大字频数
            max_font_size=150,  # #最大号字体,如果不指定则为图像高度
            random_state=1,
            scale=3  # 像素
        )
        wc.generate(text_words)
         # 根据图片颜色重新上色
        image_color = ImageColorGenerator(backgroug_Image)
        plt.imshow(wc.recolor(color_func=image_color))
        wc.to_file('Data\Class_model\Cloud_picture\cloud_%s.png'%label) # 保存图片
        plt.axis('off') # 去除坐标轴
        plt.show()

if __name__ == '__main__':
    ws = Word2vec_similar()
    # 若5 类诗歌的word2vec模型不存在,则训练生成
    if os.path.exists('Data/Class_model/Keyword_biansai.model')== False:
        ws.train_6poems_word2vec_model()

    # # 测试:根据输入词,来判别哪一类, eg: 边塞--->边塞征战类
    # key_word = '山水'
    # result = ws.class_tags(key_word)
    # print(result)

    # 测试:判断类别后返回6个相似词,eg: 秋思-->['秋意', '寒砧', '竹声', '空阶', '窗且', '灯昏']
    # key_word = '秋思'
    # class_tag = '思乡羁旅'
    # result = ws.similar_6words(key_word,class_tag)
    # print(result)

    # 测试:绘制一类诗歌的云图
    file_path = 'Data\Class_model\Class_before_dealed_data/biansai.txt'
    texts = open(file_path,'r',encoding='utf-8').read()
    texts = texts.replace('\n','')
    label = '边塞征战'
    ws.Picture_file(texts,label)

 4、数据集:

1. 主题词分类:

      分别为五类诗歌设置15个关键词,然后以维基百科为语料训练得到维基百科的word2vec模型,百度云链接如下:

链接: https://pan.baidu.com/s/11RXXyOckIW7SWUlULNNkPQ 提取码: 3egr

根据用户输入的主题词,来与各类诗歌的关键词做相似度计算,判断主题词最可能所属的诗歌类别。

 2. 相似词生成:

       以分好类的五类诗歌为语料,训练得到各自的word2vec模型。判断主题词类别后,以其所属类别的word2vec模型,生成6个与主题词最相似的词,作为后续生成诗歌时,每句开头字的候选集合。此处的5类诗歌各自的word2vec模型可自行训练。

我训练好的模型,百度云链接如下:

链接: https://pan.baidu.com/s/1Xkxs5tkttIoBxs_eYbZe_A 提取码: 40ux

测试时绘制了一张边塞征战类诗歌的云图:

(此图已去除诗歌题目、作者、停用词)

                               

代码中计算《诗学含英》的6个标题词函数,是在后续LSTM模型生成诗歌时,进行每个生成字的概率权重计算时要应用的。

 

基于flask+LSTM实现AI写诗源码+部署说明+保姆级代码注释.zip
08-21
【资源说明】 基于flask+LSTM实现AI写诗源码+部署说明+保姆级代码注释.zip 1、该资源内项目代码都是经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能。 实现细节 1. data是numpy数组,57580首*125字 2. word2ix和ix2word都是字典类型,用于字符和序号的映射 3. nn.Embedding层可以输入为long Tensor型的字的下标(int),输入为同样shape的词向量,下标换成了向量,其余形状不变。最重要的构造参数是num_embeddings, embedding_dim 4. nn.LSTM主要构造参数input_size,hidden_size和num_layers,其中input_size其实就是词向量的维度,forward时输入为input和(h0,c0),其中input为(seq_len,batch_size,input_size),h0和c0是(num_layers $*$ num_directions, batch, hidden_size),而forward的输出为output和(hn,cn),一般后面一个就叫做hidden,output为(seq_len, batch, num_directions $*$ hidden_size) 5. 在本网络中,从前往后总共经历了这么几个网络,其向量变化如下: - input:(seq_len,batch_size) - 经过embedding层,embeddings(input) - embeds:(seq_len,batch_size,embedding_size) - 经过LSTMlstm(embeds, (h_0, c_0)),输出output,hidden - output:(seq_len, batch, num_directions $*$ hidden_size) - output view为(seq_len $*$ batch, num_directions $*$ hidden_size) - 进过Linear层判别 - output:(seq_len $*$ batch, vocab_size) 6. 具体训练时的实现方法: - 输入的input为(batch_size,seq_len) - data_ = data_.long().transpose(1,0).contiguous()将数据转置并且复制了一份,成了(seq_len,batch_size) - 通过input_,target = data_[:-1,:],data_[1:,:]将每句话分为前n-1个字作为真正的输入,后n-1个字作为label,size都是(seq_len-1,batch_size) - 经过网络,得出output:((seq_len-1) $*$ batch, vocab_size) - 通过target.view(-1)将target变成((seq_len-1) $*$ batch) - 这里的target不需要是一个one-hot向量,因crossEntropy不需要,直接是下标即可 - 然后反向传播即可 7. 生成诗句的方法: - 首字为<START>,首个hidden自动为空 - 如果有前缀风格,通过前缀生成hidden - 在首句内部时,不使用output,仅仅不断前进得到hidden,直到首句结尾。 - 进入生成模式后,实际上每次调用model都生成一个字,逐渐生成前n句话。 - 藏头诗同理,只是在头的部分将诗句首字换掉 ### 使用方法 首先训练模型,然后运行app.py,访问。当然也可以直接执行app.py,使用预训练内容。 ```python python main.py ``` ```python python app.py ```
word2vec/fastText+BiLSTMTextCNN、CNN+BiLSTM、BiLSTM+Attention情感分类
12-11
内含10w+数据的文本数据集,可调用模型进行情感预测。 主要功能:数据清洗、文本特征提取(word2vec / fastText)、建立模型(BiLSTMTextCNN、CNN+BiLSTM、BiLSTM+Attention) 注:资源内包含所有第三方模块的对应版本,百分百可运行,诚信。 博客链接:https://blog.csdn.net/qq_44186838/article/details/117995029
[附源码]基于flask框架基于Android实时公交查询系统 (python+mysql+论文)
浩焱毕设程序源码
03-23 854
通过使用前端技术html+css+javascript+vue,后端技术python+flask以及mysql5.7数据库,结合vscode和navicat等开发工具,可以构建一个高效、稳定且用户友好的实时公交查询系统,以满足现代社会对公共交通信息获取的需求。这有助于提高开发效率,优化代码结构,并确保代码质量。在数据库管理工具的选择上,使用了Navicat 11,这是一个用户友好且功能强大的数据库管理软件,它支持多种数据库系统,包括MySQL,并提供了图形化界面,使得数据库的管理和维护工作更加便捷。
Android后端服务器的搭建方法
08-30
本篇文章主要介绍了Android后端服务器的搭建方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
基于word2veclstm实现的二分类文本情感分析python源码+文档说明
02-14
<项目介绍> 基于LSTM的二分类文本情感分析 主要基于word2veclstm实现的情感分类系统。 code/ 代码 data/ 训练、测试、输出数据 model/ 模型 - 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 --------
AndroidFlask:将图像从Android上传到基于PythonFlask服务器
02-05
AndroidFlask 将图像从Android上传到基于PythonFlask服务器 该存储库包含2个主要文件夹: AndroidClient :代表Android Studio项目,该项目构建作为客户端工作的Android应用程序。 FlaskServer :使用Flask的基于Python的服务器。 要使用此项目,请执行以下操作: 打开Android Studio项目并运行它以创建APK并运行该应用程序。 之后,运行Flask应用程序Python文件。 足以在控制台中运行它。 服务器启动并运行后,然后返回Android应用程序。 编辑IPv4地址的EditText框,以反映
LSTM预测股价的APP
zoukkkkkzou的博客
12-16 2763
根据之前的代码:LSTM预测股票收盘价做了一点修改。 首先收集数据: import tushare as ts import pandas as pd def get_data(code, date): #数据准备/data preparation #变量选取Open,High,Low,Close,Volume等,以浦发银行股票为例 pro = ts.pro_api('...
flask+sqlite+Android实现订单管理系统(二)
kewei168的博客
05-22 1832
本系列文章已经重构并且转移至我的个人博客网站,欢迎来看 从零开始搭建一个联网小程序(一)—— 工具和基本概念介绍 从零开始搭建一个联网小程序(二)—— 服务器端程序 从零开始搭建一个联网小程序(三)—— Android端程序 服务器端程序部署 服务器端配置使用了gunicorn和nginx,其中gunicorn用于运行Python程序,nginx用于反向代理(缓冲请求和相应...
Android卡通人脸转换APP(附源码)
iiiiiiimp的博客
01-17 4872
写在前面~ APP界面参考了微信小程序AI卡通秀,项目是在MagicCamera上改的。博主技术菜也没有时间做优化~程序大概率会有很多bug,只能说按正常操作使用不会出问题,请大家见谅! 效果~ 拍照或者从相册中选图片 前景融合 背景融合 个性签名 如何运行~ 注意~ 写在后面~ ...
androidflask交互,java - 当我从AndroidFlask Web服务发送参数时,如何解决“ SSL库故障”? - 堆栈内存溢出...
weixin_33552698的博客
05-31 429
我确实尝试将一些值作为“ application / json ”从Android应用程序发送到Flask Web服务。 这是我的Java代码 :Thread thread = new Thread(new Runnable() {@Overridepublic void run() {try {URL url = new URL("https://192.168.43.31:5000/a/")...
Android代码-fastText4j
08-07
fastText4j Java port of C version of Facebook Research [fastText][fasttext]. This implementation supports prediction for supervised and unsupervised models, whether they are quantized or not. Please use C version of fastText for train, test and quantization. Supported fastText version fastText4j
python实现基于字+词位分别使用tensorflow IDCNN+CRF及BiLSTM+CRF实现中文命名实体识别及检测
最新发布
04-22
python实现基于字+词位分别使用tensorflow IDCNN+CRF及BiLSTM+CRF实现中文命名实体识别及检测,适合毕业设计、课程设计、项目开发。项目源码已经过严格测试,可以放心参考并在此基础上延申使用~ python实现基于字+...
基于python+keras+flaskLSTM价格预测网站-毕业设计源码+使用文档(高分优秀项目).zip
04-15
2、本项目适合计算机相关专业(如软件工程、计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载使用,也可作为毕设项目、课程设计、作业、项目初期立项演示等,当然也适合小白学习进阶...
【数据可视化】基于Streamlit制作的时间序列数据分析APP(上手简单,附可运行源码)
书山有路,学海无涯。记录成长,追逐梦想
01-24 7773
虽然可以通过Django、Flask技术构建Web App,但是它们对于非专业的编程者来说,初学是困难的。Streamlit是一种快速搭建数据可视化APP技术。它上手简单,并且能够提供一些操作简单的交互式控件。
自动写诗APP项目、基于python+Android实现技术LSTM+Fasttext分类+word2vec+Flask+mysql)第四节
Turbo_Come的博客
08-16 1755
三、LSTM模型搭建 生成诗歌模型主要是基于隐马尔可夫原理,从时间序列的随机事件中,统计前后状态转化的概率。在此模型当中,就是根据给定的第一个字(即前一阶段已选择出来的与主题词最相似的候选词集合),来生成它后面出现的最大概率的字。 1、 诗句到向量的转换 因为诗歌是古人智慧的结晶,文学的高度凝练。在此,并不能像普通文本那样简单的做分词处理。而是以字为单位,来做诗句到向量...
android构建神经网络,LSTM神经网络Android平台上的实现
weixin_42389030的博客
05-29 746
摘要:随着移动互联网的发展,移动平台上英语口语学习软件越来越丰富,在移动端为用户提供正确的发音指导也越来越重要.传统的英语口语学习系统一般使用隐马尔可夫(Hidden Markov Model,HMM)模型或神经网络(Artificial Neural Network,ANN)模型进行识别,但是HMM模型固有的限制会导致系统性能不能进一步提升;ANN虽然具有强大的分类能力,但是在处理长时依赖的问题...
Android移动开发,传输数据到电脑本地服务器(flask
YDDUONG的博客
04-28 1985
大概流程 安装flask,新建并运行一个本地服务器 测试服务器 写Android接口,使用OKhttp进行数据传输 手机端:(效果展示) 服务器端: 安装flask:pip install flask 新建并运行服务器: # coding="utf-8" from flask import Flask, request, render_template # create a MyFl...
Python--Flask 开发Android API接口
吴唐人的博客
06-24 2592
1. Flask介绍 Flask是一个使用 Python 编写的轻量级 Web 应用框架,使用简单操作方便,很适合开发轻量级的API接口,让Android程序员从此不再去问后台要测试接口了。 2. 简单使用 1.安装 pip3 install Falsk 2.使用 from flask import Flask #初始化 app = Flask(__name__) #路由 @app.route...
二叉树的中序遍历(python):递归+迭代
Turbo_Come的博客
03-01 3584
94 LeetCode 二叉树的中序遍历 """ 给定一个二叉树,返回它的中序遍历。 示例: 输入: [1,null,2,3] 1 \ 2 / 3 输出: [1,3,2] 进阶:递归算法很简单,你可以通过迭代算法完成吗? """ 定义树结构: # Definition for a binary tree node. class TreeNode...
word2vec+bilstm分类
05-12
Word2vec和Bilstm都是机器学习中常用的算法,可以用于文本分类等自然语言处理任务。Word2vec是一种用于将文本转换为向量表示的工具,它将每个单词都表示为一个向量,从而可以进行文本分析、分类等操作。Bilstm则是一...

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • pytorch 保存和加载 Checkpoint 模型,实现断点训练 18858
  • Vgg16 + Unet 介绍 10541
  • 朴素贝叶斯,TF-IDF实现文本分类 9827
  • Visio2016 科学扩展包 8663
  • LSTM模型介绍 7192

分类专栏

  • 论文总结 5篇
  • 分布式文件传输 1篇
  • 算法设计 30篇
  • 对抗攻击 1篇
  • 竞赛总结 1篇
  • tensorflow学习 3篇
  • pytorch学习笔记 2篇
  • Java 3篇
  • 深度学习 25篇
  • python学习 58篇
  • 自然语言处理 7篇
  • 心得体会 30篇
  • Linux 1篇

最新评论

  • 迁移学习应用

    CSDN-Ada助手: 多亏了你这篇博客, 解决了问题: https://ask.csdn.net/questions/7996897, 请多输出高质量博客, 帮助更多的人

  • pytorch 保存和加载 Checkpoint 模型,实现断点训练

    一蓑烟雨渡平生: 博主您好,请问修改网络后,怎么加载这一行呢?[code=python] optimizer.load_state_dict(checkpoint['optimizer_state_dict']) [/code]

  • 自动写诗APP项目、基于python+Android实现(技术:LSTM+Fasttext分类+word2vec+Flask+mysql)第一节

    qq_41317248: 请问一下博主 这个"诗学含英”的txt文件有提供吗,想学习一下表情包

  • 自动写诗APP项目、基于python+Android实现(技术:LSTM+Fasttext分类+word2vec+Flask+mysql)第三节

    qq_41317248: 请问一下博主 这个"诗学含英”的txt文件有提供吗,想学习一下表情包

  • Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation论文解读

    __Eric: 原数据data做了scale处理,为什么会影响CAM的训练过程啊?

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • FDFS传输文件错误
  • Clinically Applicable AI System for Accurate Diagnosis, Quantitative Measurements...论文总结
  • A Generalized Deep Learning Approach for Evaluating Secondary Pulmonary Tuberculosis...论文总结
2020年75篇
2019年38篇
2018年4篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

聚圣源二十四桥明月夜起名三行五格用诗起什么名字好三生三世枕上电视剧智起名房屋效果图用什么软件佛教在线1518起名字淘宝推广软件厦门工商红盾网九画属木的起名吉利字我就是这般女子剧情介绍龙俊亨聊城区号起名周易公司起名胖宝宝起小名男孩起名诗经起个什么男孩小名三个字什么品牌起名大全姓郭给起名7电影网isobuster普京打疫苗后抗体检测阳性夜空中最闪亮的星电视剧米粉食品商标起名xyp.163.com魔兽争霸3冰封王座下载赵本三诸界末日在线党委会的工作方法淀粉肠小王子日销售额涨超10倍罗斯否认插足凯特王妃婚姻让美丽中国“从细节出发”清明节放假3天调休1天男孩疑遭霸凌 家长讨说法被踢出群国产伟哥去年销售近13亿网友建议重庆地铁不准乘客携带菜筐雅江山火三名扑火人员牺牲系谣言代拍被何赛飞拿着魔杖追着打月嫂回应掌掴婴儿是在赶虫子山西高速一大巴发生事故 已致13死高中生被打伤下体休学 邯郸通报李梦为奥运任务婉拒WNBA邀请19岁小伙救下5人后溺亡 多方发声王树国3次鞠躬告别西交大师生单亲妈妈陷入热恋 14岁儿子报警315晚会后胖东来又人满为患了倪萍分享减重40斤方法王楚钦登顶三项第一今日春分两大学生合买彩票中奖一人不认账张家界的山上“长”满了韩国人?周杰伦一审败诉网易房客欠租失踪 房东直发愁男子持台球杆殴打2名女店员被抓男子被猫抓伤后确诊“猫抓病”“重生之我在北大当嫡校长”槽头肉企业被曝光前生意红火男孩8年未见母亲被告知被遗忘恒大被罚41.75亿到底怎么缴网友洛杉矶偶遇贾玲杨倩无缘巴黎奥运张立群任西安交通大学校长黑马情侣提车了西双版纳热带植物园回应蜉蝣大爆发妈妈回应孩子在校撞护栏坠楼考生莫言也上北大硕士复试名单了韩国首次吊销离岗医生执照奥巴马现身唐宁街 黑色着装引猜测沈阳一轿车冲入人行道致3死2伤阿根廷将发行1万与2万面值的纸币外国人感慨凌晨的中国很安全男子被流浪猫绊倒 投喂者赔24万手机成瘾是影响睡眠质量重要因素春分“立蛋”成功率更高?胖东来员工每周单休无小长假“开封王婆”爆火:促成四五十对专家建议不必谈骨泥色变浙江一高校内汽车冲撞行人 多人受伤许家印被限制高消费

聚圣源 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化