在学习 MySQL 的过程中,也许你希望有个中文网站可以参考,或许你曾经在搜索引擎中寻找过此类网站。如果你有此类需求的话,那么下面介绍的这个网站你一定要收藏。
无论是大学期间的小论文还是令人头秃的毕业论文, 查找文献是必不可少的环节. 而这个过程说到底就两句话:
最近总能看到群里有人问最新的Sci-Hub地址,或者压根不知道这个,求助文献下载的,小编就旧文新发一遍,方便大家下载文献,下载英文文献基本不需要再求人了,中文也基本没什么问题。
(很多文章中都推荐各种杂七杂八的网站,但就小编的个人经验,最好是2~3个功能强大的途径就行了,毕竟科研狗平时也没有那么多的脑子用在记各种网址上......)
虽然说我们也有国产的百度学术,但和站在巨人肩膀上的Google Scholar相比,只能说是拙劣的模仿者。
本文的目的是为了让刚刚接触 ABP 框架的同学或者准备接触 ABP 框架的同学,能够理解和搞明白 ABP 框架到底是怎么回事,毕竟它发展了好几年的时间。社区中有很多人做 了 ABP 的资料和文章包括我自己也建立了 52ABP,社区中还有 ABPplus 等等的内容。对于很多不了解 ABP 框架的人,会产生无限的疑惑和不知道如何下手的痛苦。
这个网址号称是国内最先翻译BootStrap4的中文文档。 该网址是:http://wiki.jikexueyuan.com/project/bootstrap4/getting-started/introduction/ 然而,我想说的是,这源码其实都是BootStrap3的。 英文的BootStrap4的模板是下面这个: 英文网址:https://v4-alpha.getbootstrap.com/getting-started/introduction/
讲真,这篇文章已经憋了好多天了。其实本文可以说是“起于前端,但不止于前端。” 写作的契机是最近在指导一位北京的哥们写前端,有感而发罢了。希望能够给同行一些可行性的建议吧。 文章开始之前我想要深情地问候
我从五月中旬开始,每天强迫自己阅读至少一篇纯英文的文章。其实,这也算是跳出舒适区了。毕竟,相同内容的文章,中文看一篇需要 5 分钟的话,纯英文可能需要 10~15 分钟。
说到搜索英文文献,最常用的应该就是Pubmed了,但是Pubmed远非十全十美,比如说Pubmed就有以下缺点:
作者:林梓 链接:https://zhuanlan.zhihu.com/p/23508637 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
而它下面的这个西班牙语频道叫做Gizmodo en Español(GizmodoES)。
如果你看到这篇文章,恭喜你!不论是初入编程领域的小白,还是已经在工作几年的老手,这篇文章都将对你有很大的帮助。建议看到最后。相信我!一定会有收货。
写论文做研究的时候少不了要看论文,但是很多时候看过同类的论文之后发觉什么也没记住,本文将有三位牛人想大家分享他们在阅读论文的一些技巧,希望对大家有用。 科研牛人一: 从Ph.D到现在工作半年,发了12 篇paper, 7 篇first author 我现在每天还保持读至少2-3 篇的文献的习惯,读文献有不同的读法,但最重要的自己总结概括这篇文献到底说了什么,否则就是白读,读的时候好像什么都明白,一合上就什么都不知道,这是读文献的大忌,既浪费时间,最重要的是没有养成良好的习惯,导致以后不愿意读文献。 1.
前期我们在EndNote文献输出引用格式自定义修改与编辑界面解读这一推文中,详细介绍了文献管理软件EndNote的引用格式自定义方法,其中我们设置了将参考文献部分的文章按照文章语种进行排序,而这一设置在默认情况下是英文在前中文在后。
“大神你好,请问我打算学习Django,应该怎么做?” 答:“去看文档” “Django的文档都是英文,我看不下去,怎么办” 答:“bla bla bla…. 关于英文的重要性” “Django的文档那么多,我是不是都得看完才行?” 答:“不用,用到哪看到哪,没事可以随意浏览” 上面的对话经常会出现在我的QQ消息框中,有很多初学Django的人通常都会有这样或者那样的疑问,我之前写过一篇 《从Django的Turotial中可以学到什么》 ,在那篇文章中我总结过,练习完这个新手入门教程,基本上可以独自开
本文介绍基于EndNote等软件在Word中插入参考文献后,将中文参考文献中的et al.替换为等的方法。
如果想记录工作日志,甚至打造自己的知识管理平台,推荐印象笔记https://www.yinxiang.com,除了笔记还有收藏功能,比如在微信里备份文章,这个在之前写过如何备份可能被删的公众号文章和网页
作为世界上最大的同性交友网站,真的是越来越好了。弱弱的,欠抽样的问一句:你们看到标题《厉害了,我的同性交友网站》,是不是以为我开发了一个同性交友的网站呢?哈哈……上当的请举手。举手干啥?还能干啥,当然是揍我了,没看到我上面说的是欠抽样嘛!啊,哈哈哈……
日常我们开发时,我们会遇到各种各样的奇奇怪怪的问题(踩坑o(╯□╰)o),这个常见问题系列就是我日常遇到的一些问题的记录文章系列,这里整理汇总后分享给大家,让其还在深坑中的小伙伴有绳索能爬出来。 同时在这里也欢迎大家把自己遇到的问题留言或私信给我,我看看其能否给大家解决。
工欲善其事,必先利其器。chrome 作为我们前端开发,甚至说我们程序员最常用的开发工具,我们得把这把剑好好利用起来。
作为一个平时就很辛苦的科研er,本着能用工具解决的问题绝对不花苦力的原则,收集了很多科研利器,现在分享给大家,相信大家看完以后科研效率都能够得到质的提升!
title: 用Github Actions运行Python脚本更新仓库博客到WordPress,手机写Markdown同步更新到Github和WordPress攻略 tags:
对于百度不收录的情况,几乎每一名SEO人员,我们都曾遇到过,但在实际操作中,出现短周期内,整站页面收录量大幅下降,一定是处于某种原因,这就需要SEO人员,认真的审查自己网站优化的没一个策略,查看是否出现问题。
前些天,用尽平生所学,写了一篇技术文章,Vue3项目框架搭建封装,一次学习,终身受益【万字长文,满满干货】,可惜掘金给的流量不多,点赞的人不多,评论的人几乎没有,收藏的人却不少,我想可能是万字长文看起来太吃力,于是花了3天时间用vitepress搭建了一个项目文档,方便大家查阅。
先拿到文件中的单词,利用split函数分隔,原理是string的find_of_first函数,第二个参数很好用,可以根据分号逗号等等任意分隔。将分隔的一个一个单词存储到vector中。 然后遍历vector,存储在multimpa中,使用键值对方式,健是string,值是int,使用find函数,如果map中有则值加一,没有则放入。multimap中的会按照第一个元素排序输出, 即string的字典序输出。如何按照int从大到小输出?将map的值放到vector中,使用自定义排序写一个cmp函数,即可、
GitHub 是世界上最大的开源平台,随着它在国内的不断推广普及,不少开发者都开始纷纷采用 GitHub 来作为公司内部的代码管理工具。
修改Host已经无法使用了,如何通过别的方法来使用我们的网页翻译呢?这个使用可以使用我们的拓展应用商店里面的程序,侧边翻译,内置各种强大的翻译源下载地址:https://github.com/EdgeTranslate/EdgeTranslate上面的可能英文你们看不懂,我们来中文文档下载地址中文文档下载地址:https://github.com/EdgeTranslate/EdgeTranslate/blob/master/docs/README_CN.md图片图片选择你需要浏览器插件地址下载安装就不需要
最近正在用nltk 对中文网络商品评论进行褒贬情感分类,计算评论的信息熵(entropy)、互信息(point mutual information)和困惑值(perplexity)等(不过这些概念我其实也还理解不深...只是nltk 提供了相应方法)。 我感觉用nltk 处理中文是完全可用的。其重点在于中文分词和文本表达的形式。 中文和英文主要的不同之处是中文需要分词。因为nltk 的处理粒度一般是词,所以必须要先对文本进行分词然后再用nltk 来处理(不需要用nltk 来做分词,直接用分词包就可以了。
最近正在用nltk 对中文网络商品评论进行褒贬情感分类,计算评论的信息熵(entropy)、互信息(point mutual information)和困惑值(perplexity)等(不过这些概念我其实也还理解不深...只是nltk 提供了相应方法)。 我感觉用nltk 处理中文是完全可用的。其重点在于中文分词和文本表达的形式。 中文和英文主要的不同之处是中文需要分词。因为nltk 的处理粒度一般是词,所以必须要先对文本进行分词然后再用nltk 来处理(不需要用nltk 来做分词,直接用分词包就可以
我会用搜索引擎搜索关键词,找几篇和主题相关的文章去阅读,掌握主题的各个知识点。偶尔会去掘金在站内搜索一下。
目前国内程序员的数量已经几百万之众,中国的软件经过最近几十年的发展已经取得了绝大的进步,亚诞生了像bat这样在全球都很有名的互联网公司,但你会发现很多程序员还是习惯性绝的还是国外的技术网站获取到的编程知识更加直接,更加的原汁原味,特别对于一些初学者来讲选择买书,基本上首选国外的经典编程入门书籍,还有很多人对于国内的编程的书质量表现很不屑,为什么有那么多国内的程序员更喜欢用国外的技术网站,国内的技术网站做的有那么差劲嘛?
在写作过程中,正文中的参考文献顺序是繁琐且重要的。目前已有较多的文献管理软件如Endnote、Notedxpress、Mendeley等帮助我们进行管理,以便自动调整文献顺序和文献格式。但是这些软件并不是万能的!
前言: 这是之前还在论坛当版主的时候,给自己定下的汉化规矩: 1.按照固定格式来排版; 2.能力有限不是机翻和偷工减料的借口; 3.尽量得到原作者的转载授权 虽然不再参与汉化工作了,但是有一些好的习惯值得继续保持。
输入一个英文文章片段 翻转指定区间的单词顺序,标点符号和普通字母一样处理 例如输入字符串 I am a developer. 区间[0,3]则输出 developer. a am I
在自然语言处理中比较热门的操作就是中文或英文语句分词了,分词就是按照不同的算法和参数将语句分成若干词汇。拆分后的关键词可以进行词频统计或者词云图片生成等,能够快速方便的找到语句的核心主题热点。
在日常工作中,尤其是程序员时时刻刻都会与英文打交道,虽然我们尽可能的在互联网和中文书籍中寻找我们需要的信息,但是,有时候总是不尽人意。对待翻译过来的文档或者书本可能有些定义依然无法明确理解,回到它原有的场景中才能明白究竟是什么意思?阅读英文文档应该是我们的基本技能。
在写《学习Python,怎能不懂点PEP呢?》的时候,我已经发现国内的Python翻译环境不容乐观。这个结论可能不对,毕竟这几年Python大热,或许有不少优秀的翻译项目,只是我还不知道而已。
把上周在家电脑上可以部署的webapi示例拿到服务器上,结果遇到许多问题。不过还算解决了,现记录一下方法。
之前我们通过朴素贝叶斯方法,做过英文文档的分类(传送门)。那使用中文文本,如何使用深度学习方法来进行分类了?这就是本文所讲的。首先我们来看看中文文本和英文文本的不同。 在处理英文文本时,我们使用的是TF-IDF方法,该方法当然也可以使用在中文文本中,但是我们都知道,中文的分词不像英文那样,每个词都是通过空格分开的,中文我们通过jieba来进行分词。
对于一些引用的英文文献,我们需要快速地了解整篇文献讲了什么内容,来判断是否可以作为“国内外研究现状”来进行详细分析。
http://www.jikexueyuan.com/ 极客学院,各种学习资料,但是视频大部分收费的,如果有特别想看的课程可以学习,实在不行看看wiki。 http://www.imooc.com/course/list 慕课网,前端课程比较好,推荐看里面的沙龙课程,知道一线前言公司用什么,怎么用。 http://www.chuanke.com/ 百度传课,百度3000w收购的一个类12k平台,好多其他平台收费的在这里可以找到免费版本。 http://study.163.com/ 网易出品,品类较多,但是
大家好,感谢大家关注matlab爱好者!大家平时在网上查阅英文文献时可能会因为版权问题无法阅读到完整的文献内容,今天给大家介绍一个科研文献下载管道 —— Sci-Hub,下面是维基百科对Sci-Hub最原汁原味的解释。
今天给大家分享一个AI导师,它能根据你的个性化需求制定学习计划。在GPTs上有50k+的人使用过,目前GPTs上是2.7版本,作者已经在写3.0的版本,但目前只完成了不到70%,其开源地址:https://github.com/JushBJJ/Mr.-Ranedeer-AI-Tutor
机械公敌?一场乌龙,Facebook的AI“失控”只是程序存在bug
如果你非要用狗哥,可以试试他的镜像,比如这个网站上的Guidebook | 让工作学习生活更高效![1]:
平常遇到不认识的单词可能习惯用百度翻译或者谷歌翻译,这里推荐些更好用的翻译工具。
领取专属 10元无门槛券
手把手带您无忧上云