PythonでWebスクレイピング第04回|Pythonで自動で画像収集→保存する方法
Автор: キノコード / プログラミング学習チャンネル
Загружено: 2021-06-04
Просмотров: 12089
Описание:
キノコードでは、Webスクレイピングに関する動画をこれまで3本アップしました。
この動画では、検索結果にあるURLにアクセスして、自動で画像を収集、保存する方法について解説しました。
<Webスクレイピングにおける注意点>
Webスクレイピングは、利用規約違反や法律違反にならないよう必ず確認をしてから行ってください。
Webスクレイピングは非常に便利です。人の手ではできないことをやってくれ業務効率化が図れます。
ただし、他社システムへWebスクレイピングをする場合は、十二分の注意が必要です。
使い方によっては損害賠償請求などをされる可能性、偽計業務妨害罪の可能性もあります。
業務に他社システムへWebスクレイピングを取り入れるのであれば自己責任では済まないので、上長やIT部や法務部などに確認、相談しましょう。
また、自社システムであってもサーバーへ負荷がかからないように注意し、不安であれば上長やIT部へ相談をしましょう。
▼目次
00:00 はじめに
01:50 前回までの復習〜検索ワードの結果ページのURLを取得
03:00 前回の復習〜検索結果URLから結果ページのリンク先の情報を取得(URL、タイトル、説明文)
05:20 URLのリストにアクセスして画像ファイルのリンク先を取得
06:59 画像ファイルのリンク先からファイル名を取得
10:48 画像ファイルのURLにアクセスして画像ファイルを一気に保存
12:24 保存した画像ファイルの数を確認
13:08 おわりに
▼関連動画
<Pythonで面倒な「ブラウザ操作」や「データ収集」の作業を自動化しよう|Webスクレイピングのやり方をわかりやすく解説>
• Pythonで面倒な「ブラウザ操作」や「データ収集」の作業を自動化しよう|Webスク...
<PythonでWebスクレイピング|複数ページに記載があるリンク先URLを取得する方法をわかりやすく解説>
• PythonでWebスクレイピング第02回|Pythonでサイトに掲載されている大量...
<ラクしてデータ収集|キーワード検索した結果ページのデータ取得する方法>
• PythonでWebスクレイピング第03回|Pythonでキーワード検索した結果ペー...
<Python超入門講座>
• 【超入門コース】Python|プログラミング初心者向け講座
<Pandas超入門講座>
• Pandas入門コース|プログラミング初心者向け講座
▼自己紹介
ブログに自己紹介を書いております。
https://kino-code.com/profile/
▼SNS
Twitter : / likes
Facebook : / %e3%82%ad%e3%83%8e%e3%82%b3%e3%83%bc%e3%83...
Website : https://kino-code.com/
▼書き起こし
```python
from bs4 import BeautifulSoup
import requests
import pandas as pd
import time
```
では、ライブラリをインポートしていきます。
bs4のパッケージの中にあるBeautifulSoupを読み込みます。
BeautifulSoupは、複雑なHTMLの構造を解析し、必要な部分を取り出すことができるライブラリです。
HTTP接続するために、requestsをインポートします。
requestsはPythonの標準のurllibモジュールよりもシンプルに実装でき、APIに関する機能も備わっています。
データ整形のためにPandasもインポートします。
さらに、HTTPに接続した後、すぐに次の処理が実行されないようにするためtimeをインポートします。
実行します。
インポートが完了しました。
```python
keyword = 'Python'
url = 'https://kino-code.work/?s={}'.format(keyword)
r = requests.get(url)
time.sleep(3)
soup = BeautifulSoup(r.text, 'html.parser')
page_na = soup.find(class_ = 'pagination')
page_num = page_na.find_all(class_ = 'page-numbers')
pages = []
for i in page_num:
pages.append(i.text)
urls = []
if not pages:
urls = ['https://kino-code.com/?s={}'.format(keyword)]
else:
last_page = int(pages[-2])
for i in range(1, last_page + 1):
url = 'https://kino-code.work/?s={}'.format(keyword) + '&paged={}'.format(i)
urls.append(url)
urls
```
['https://kino-code.work/?s=Python&page...,
'https://kino-code.work/?s=Python&page...,
'https://kino-code.work/?s=Python&page...]
前回のレッスンで書いたソースコードです。
Pythonで検索しました。
検索結果のページのURLが取得できていますね。
(書き起こしブログに続く)
▼書き起こしブログ
https://kino-code.com/webscraping04/
#Pythonでスクレイピング #Python自動化 #PythonでRPA #Pythonできること
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: