└─ python ->
└─ 黑马程序员《Python爬虫数据采集课程》 ->
├─ 资料 ->
├─ 第4节 selenium ->
├─ 2. 其他资料(空) ->
└─ 浏览器插件 ->
├─ MacOS X ->
├─ JSONView0.0.32.2_0.crx - 94.1KB
├─ XPath-Helper_v2.0.2.crx - 246.6KB
└─ SwitchyOmega-2.3.21.crx - 777.9KB
└─ Windows ->
├─ SwitchyOmega-2.3.21.crx - 777.9KB
├─ JSONView0.0.32.2_0.crx - 94.1KB
└─ XPath-Helper_v2.0.2.crx - 246.6KB
├─ 1.课件 ->
├─ images ->
├─ 下载chromedriver-3.png - 66.1KB
├─ 查看chrome版本2.png - 46.8KB
├─ selenium的工作原理.png - 22.5KB
├─ 下载chromedriver-2.png - 72.7KB
├─ 下载chromedriver-4.png - 74.2KB
├─ 查看chrome版本.png - 75.8KB
└─ 下载chromedriver-1.png - 129.7KB
├─ 3.selenium的其它使用方法.md - 11.6KB
├─ README.md - 285B
├─ 2.selenium定位获取标签对象并提取数据.md - 3.2KB
└─ 1.selenium的介绍.md - 5.8KB
└─ 3.代码 ->
├─ 7.qzone.py - 480B
├─ 10.wait.py - 206B
├─ 12.douyu.py - 1.7KB
├─ 4.locate_test.py - 870B
├─ 8.selenium_cookies.py - 240B
├─ 9.execute_js.py - 251B
├─ 5.58.py - 555B
├─ 6.window_handler.py - 803B
├─ 11.selenium_config.py - 608B
├─ 3.selenium_attribute&func.py - 480B
├─ 1.example_test.py - 1003B
└─ 2.selenium_test.py - 389B
├─ 第8节 scrapy-redis ->
├─ 3.代码 ->
├─ JD ->
├─ JD ->
├─ __pycache__ ->
├─ items.cpython-36.pyc - 503B
├─ __init__.cpython-36.pyc - 136B
└─ settings.cpython-36.pyc - 548B
├─ spiders ->
├─ __pycache__ ->
├─ __init__.cpython-36.pyc - 144B
└─ book.cpython-36.pyc - 2.4KB
├─ book.py - 3.3KB
└─ __init__.py - 161B
├─ settings.py - 4.4KB
├─ __init__.py - 0B
├─ pipelines.py - 282B
├─ middlewares.py - 1.9KB
└─ items.py - 515B
└─ scrapy.cfg - 248B
└─ scrapy-redis ->
├─ src ->
└─ scrapy_redis ->
├─ picklecompat.py - 242B
├─ spiders.py - 6.7KB
├─ defaults.py - 631B
├─ utils.py - 192B
├─ connection.py - 2.3KB
├─ pipelines.py - 2KB
├─ queue.py - 4.3KB
├─ dupefilter.py - 4.3KB
├─ scheduler.py - 5.6KB
└─ __init__.py - 197B
├─ docs ->
├─ readme.rst - 27B
├─ authors.rst - 28B
├─ modules.rst - 73B
├─ Makefile - 6.6KB
├─ conf.py - 8.2KB
├─ requirements.txt - 93B
├─ index.rst - 475B
├─ history.rst - 28B
├─ make.bat - 6.3KB
├─ installation.rst - 1KB
├─ contributing.rst - 33B
└─ scrapy_redis.rst - 1.1KB
├─ tests ->
├─ test_scrapy_redis.py - 8.9KB
├─ test_utils.py - 213B
├─ test_picklecompat.py - 544B
├─ test_queue.py - 1.2KB
├─ test_spiders.py - 4.6KB
├─ test_connection.py - 2.1KB
├─ test_dupefilter.py - 2.6KB
└─ test_package_import.py - 156B
├─ example-project ->
├─ example ->
├─ __pycache__ ->
├─ __init__.cpython-36.pyc - 167B
├─ pipelines.cpython-36.pyc - 566B
└─ settings.cpython-36.pyc - 658B
├─ spiders ->
├─ __pycache__ ->
├─ mycrawler_redis.cpython-36.pyc - 1.2KB
├─ myspider_redis.cpython-36.pyc - 987B
├─ dmoz.cpython-36.pyc - 1.1KB
└─ __init__.cpython-36.pyc - 175B
├─ myspider_redis.py - 615B
├─ dmoz.py - 792B
├─ mycrawler_redis.py - 871B
└─ __init__.py - 248B
├─ items.py - 613B
├─ __init__.py - 0B
├─ settings.py - 1.2KB
└─ pipelines.py - 362B
├─ Dockerfile - 103B
├─ requirements.txt - 20B
├─ README.rst - 1.5KB
├─ docker-compose.yml - 142B
├─ process_items.py - 2.9KB
└─ scrapy.cfg - 246B
├─ TODO.rst - 767B
├─ requirements-setup.txt - 107B
├─ Makefile - 4KB
├─ AUTHORS.rst - 160B
├─ MANIFEST.in - 227B
├─ tox.ini - 610B
├─ CONTRIBUTING.rst - 3.2KB
├─ HISTORY.rst - 2.5KB
├─ LICENSE - 1KB
├─ setup.py - 1.7KB
├─ requirements-tests.txt - 83B
├─ pytest.ini - 154B
├─ VERSION - 10B
├─ README.rst - 7.2KB
├─ requirements-install.txt - 96B
├─ requirements-dev.txt - 139B
└─ setup.cfg - 76B
├─ 1.课件 ->
└─ 课件在第7节里.txt - 0B
└─ 2. 其他资料(空) ->
├─ 第3节 数据提取 ->
├─ 第9节 scrapy其他 ->
└─ 爬虫课件完整版本(HTML版本).zip - 22.8M
├─ 06_MongoDB数据库 ->
├─ 3.代码 ->
├─ JD ->
├─ JD ->
├─ __pycache__ ->
├─ items.cpython-36.pyc - 503B
├─ __init__.cpython-36.pyc - 136B
└─ settings.cpython-36.pyc - 548B
├─ spiders ->
├─ __pycache__ ->
├─ __init__.cpython-36.pyc - 144B
└─ book.cpython-36.pyc - 2.4KB
├─ book.py - 3.3KB
└─ __init__.py - 161B
├─ settings.py - 4.4KB
├─ __init__.py - 0B
├─ pipelines.py - 282B
├─ middlewares.py - 1.9KB
└─ items.py - 515B
└─ scrapy.cfg - 248B
└─ scrapy-redis ->
├─ src ->
└─ scrapy_redis ->
├─ picklecompat.py - 242B
├─ spiders.py - 6.7KB
├─ defaults.py - 631B
├─ utils.py - 192B
├─ connection.py - 2.3KB
├─ pipelines.py - 2KB
├─ queue.py - 4.3KB
├─ dupefilter.py - 4.3KB
├─ scheduler.py - 5.6KB
└─ __init__.py - 197B
├─ docs ->
├─ readme.rst - 27B
├─ authors.rst - 28B
├─ modules.rst - 73B
├─ Makefile - 6.6KB
├─ conf.py - 8.2KB
├─ requirements.txt - 93B
├─ index.rst - 475B
├─ history.rst - 28B
├─ make.bat - 6.3KB
├─ installation.rst - 1KB
├─ contributing.rst - 33B
└─ scrapy_redis.rst - 1.1KB
├─ tests ->
├─ test_scrapy_redis.py - 8.9KB
├─ test_utils.py - 213B
├─ test_picklecompat.py - 544B
├─ test_queue.py - 1.2KB
├─ test_spiders.py - 4.6KB
├─ test_connection.py - 2.1KB
├─ test_dupefilter.py - 2.6KB
└─ test_package_import.py - 156B
├─ example-project ->
├─ example ->
├─ __pycache__ ->
├─ __init__.cpython-36.pyc - 167B
├─ pipelines.cpython-36.pyc - 566B
└─ settings.cpython-36.pyc - 658B
├─ spiders ->
├─ __pycache__ ->
├─ mycrawler_redis.cpython-36.pyc - 1.2KB
├─ myspider_redis.cpython-36.pyc - 987B
├─ dmoz.cpython-36.pyc - 1.1KB
└─ __init__.cpython-36.pyc - 175B
├─ myspider_redis.py - 615B
├─ dmoz.py - 792B
├─ mycrawler_redis.py - 871B
└─ __init__.py - 248B
├─ items.py - 613B
├─ __init__.py - 0B
├─ settings.py - 1.2KB
└─ pipelines.py - 362B
├─ Dockerfile - 103B
├─ requirements.txt - 20B
├─ README.rst - 1.5KB
├─ docker-compose.yml - 142B
├─ process_items.py - 2.9KB
└─ scrapy.cfg - 246B
├─ TODO.rst - 767B
├─ requirements-setup.txt - 107B
├─ Makefile - 4KB
├─ AUTHORS.rst - 160B
├─ MANIFEST.in - 227B
├─ tox.ini - 610B
├─ CONTRIBUTING.rst - 3.2KB
├─ HISTORY.rst - 2.5KB
├─ LICENSE - 1KB
├─ setup.py - 1.7KB
├─ requirements-tests.txt - 83B
├─ pytest.ini - 154B
├─ VERSION - 10B
├─ README.rst - 7.2KB
├─ requirements-install.txt - 96B
├─ requirements-dev.txt - 139B
└─ setup.cfg - 76B
├─ 1.课件 ->
└─ 课件在第7节里.txt - 0B
└─ 2. 其他资料(空) ->
├─ 04_selenium ->
├─ 03_数据提取 ->
微信视频投屏:
1、在手机端微信中会拦截投屏功能,需要首先点击视频页面右上角“...”图标,选择“在浏览器中打开”,在列表中选取具备投屏功能的浏览器,推荐使用QQ浏览器
2、在新打开的浏览器视频页面里,点击播放按钮,可在视频框右上角看到一个“TV”投屏小图标,只要电视和手机在同一WiFi环境下,点击按钮即刻享受大屏观感!
本站资源声明:
1、如需免费下载云盘资源,请先点击页面右上角的“登录”按钮,注册并登录您的账号后即可查看到网盘资源下载地址;
2、本站所有资源信息均由网络爬虫自动抓取,以非人工方式自动筛选长效资源并更新发布,资源内容只作交流和学习使用,本站不储存、复制、传播任何文件,其资源的有效性和安全性需要您自行判断;
3、本站高度重视知识产权保护,如有侵犯您的合法权益或违法违规,请立即向网盘官方举报反馈,并提供相关有效书面证明与侵权页面链接联系我们处理;
4、作为非盈利性质网站,仅提供网络资源的免费搜索和检测服务,无需额外支付其他任何费用,学习和交流的同时请小心防范网络诈骗。