首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    目录内文件名导出到Excel文件

    1、打印文件夹列表时可以包含其他列。 2、打印文件列表时,可以包含标准文件信息,如文件名,扩展名,类型,所有者和属性以及可执行文件信息(EXE,DLL,OCX),如文件版本,描述,公司等。 3、此外,还可列出音轨,标题,艺术家,专辑,流派,视频格式,每像素位数,每秒帧数,音频格式,每通道位数等多媒体属性(MP3,AVI,WAV,JPG,GIF,BMP)。 4、您可以打印的另一组列是 Microsoft Office 文件(DOC,XLS,PPT),因此您可以查看文档标题,作者,关键字等,而无需逐一打开这些文件。 5、对于每个文件和文件夹,还可以获取其CRC32,MD5,SHA-1和Whirlpool哈希码,以便您可以验证该文件未被修改。 6、打印文件夹中的文件进一步自定义。 7、大量的选项允许您完全自定义输出的外观。您可以设置文件和文件夹的排序方式,以便随时显示它们。您可以定义列顺序,以便最重要的列立即可见。国际显示格式选项允许您根据当地需要调整输出。列表可以包含指向实际文件和目录的链接,这样您就可以将列表放在具有可点击内容的网页上。 8、HTML显示样式完全自定义 – 您可以更改背景颜色,标题,目录行,奇数和偶数文件行以及周围框架的单独样式。 9、您可以通过对文件名,日期,大小或属性应用过滤器来限制文件列表。 10、目录Lister Pro也可以集成到Windows资源管理器的上下文菜单中,因此您甚至不需要打开应用程序即可生成列表。 11、命令行界面支持可以从 Windows任 务计划程序运行的自动化列表。 12、检查文件夹大小或查找大文件夹 13、使用 Directory Lister Pro,您还可以找出给定的目录大小,按文件夹大小进行分类,并检查哪些文件夹占用了磁盘上的最多空间。您还可以使用尺寸过滤器选项在PC上找到最大的文件。

    03

    (数据科学学习手札50)基于Python的网络数据采集-selenium篇(上)

    接着几个月之前的(数据科学学习手札31)基于Python的网络数据采集(初级篇),在那篇文章中,我们介绍了关于网络爬虫的基础知识(基本的请求库,基本的解析库,CSS,正则表达式等),在那篇文章中我们只介绍了如何利用urllib、requests这样的请求库来将我们的程序模拟成一个请求网络服务的一端,来直接取得设置好的url地址中朴素的网页内容,再利用BeautifulSoup或pyspider这样的解析库来对获取的网页内容进行解析,在初级篇中我们也只了解到如何爬取静态网页,那是网络爬虫中最简单的部分,事实上,现在但凡有价值的网站都或多或少存在着自己的一套反爬机制,例如利用JS脚本来控制网页中部分内容的请求和显示,使得最原始的直接修改静态目标页面url地址来更改页面的方式失效,这一部分,我在(数据科学学习手札47)基于Python的网络数据采集实战(2)中爬取马蜂窝景点页面下蜂蜂点评区域用户评论内容的时候,也详细介绍过,但之前我在所有爬虫相关的文章中介绍的内容,都离不开这样的一个过程:

    05

    002:Python爬虫Urllib库全面分析

    Python中有一个功能强大,用于操作URL,并且在爬虫中经常使用的库、就是Urllib库。 (在python2的时候,有Urllib库,也有Urllib2库。Python3以后把Urllib2合并到了Urllib中) 合并后,模块中有很多的位置变动。我在这里先介绍一些常用的改动。 Python2: import urllib2 >>>>>Python3:import urllib.request,urllib.error Python2:import urllib >>>>>Python3:import urllib.request,urllib.error,urllib.parse Python2:import urlparse >>>>>Python3:import urllib.parse Python2:urllib2.urlopen >>>>>Python3:urllib.request.urlopen Python2:urllib.urlencode >>>>>Python3:urllib.request.urlencode Python2:urllib.quote >>>>>Python3:urllib.request.quote Python2:cookielib.CookieJar >>>>>Python3:http.CookieJar Python2:urllib.Request >>>>>Python3:urllib.request.Request 以上是Urllib中常用命令的一些变动。如果之前没有Urllib的基础也没关系,本文后面会详细介绍这些代码的具体应用,以及其实现的各种功能。

    01

    如何有效减少网页加载时间?20个提高网站访问速度的方法

    网友上网都不喜欢用太多的时间等待网页的打开,等待的越长,用户可能会直接关闭网页,这样就会损失很多流量!其次,关键字的排名与网页的打开速度也有关系,这个主要体现搜索引擎对用户体验度上,用户体验度好,排名相对其它网站就好些。因此我觉得我们有必要去提高网页的打开速度,这个不需要太多的成本投入,只需要平时多注意一些小技巧就行了!下面给出20种方法帮你提高网站访问速度缩短网页加载时间。 1、减少页面HTTP请求数量 比较直接的理解就是要减少调用其他页面、文件的数量。 A.我们在使用css格式控制的时候,经常会采用ba

    013
    领券