步骤一:构建一个人工智能模型才能让机器学会像人一样说话,在这里,使用python语言编写脚本,基于堆叠Transformer(神经网络中一个模块,使用自注意力机制用来实现句子中词和词的关联性)的解码器模块构建的GPT-2模型,采用了BERT的分词器(划分句子里面的词语)构建了一个大型的深度学习模型。
步骤二: 构建模型之后,输出结果还是会有一些Bug出现。
这个时候需要让计算机算法学习如何像人一样说话, 意味着要用很多数据给他训练(学习一下如何说话),我们先采用了100GB的中文语料CLUECorpus2020数据(涵盖互联网上搜集的各种文字材料)进行预训练,再利用超过10万首中文歌词上训练(见多识广才能说得好),然后搜集各种新年祝福语录,对模型进行微调(fine-tune - 符合语境)
步骤三:训练好后的模型就可以输出人工智能写出的结果啦,这个结果还存在一些问题,但都是小问题,需要对字符串进行一些切割和格式化处理。
步骤四: 处理好后,可以看到黑框框打印出来的例子,但这个例子还不够用户友好,而且只有一个人能用,如何才能让大家也能在自己的电脑上用呢,需要把它变成一个所有人都能访问的东西。
步骤五:所以我用了腾讯云的GPU服务器,在腾讯云服务器上进行了一通配置。 把我们编写的人工智能程序变成了一个大家都可以访问的web服务,就是从世界各地请求它,要求他输出东西,他都能返回一个结果了。
步骤六: 但这还不够轻松愉快,我们使用vue框架编写了一套人机交互界面,调用刚刚写好的web接口,然后导出结果。
步骤七:然后我们要发布我们的人机交互界面,在腾讯云上进行了又一番配置,我们的网站终于上线了!所有人都可以轻松愉快地访问并可以在微信进行分享了。
最后德仔还想说,自然语言生成离不开各种科研人员的在近年来的优秀工作,当前用人工智能生成不一样的话(“基于人工智能去创作而不是词表的简单组合”)已经变成了可能。
用到的科研成果:
Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training.
Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
Xu, L., Zhang, X., & Dong, Q. (2020). CLUECorpus2020: A large-scale Chinese corpus for pre-training language model. arXiv preprint arXiv:2003.01355.
Ethayarajh, K. (2019). How contextual are contextualized word representations? comparing the geometry of BERT, ELMo, and GPT-2 embeddings. arXiv preprint arXiv:1909.00512.
Developer:
Tianrun Chen(神经网络算法) Zhengjie Zhang(web人机交互页面)
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。