私の連絡先情報
郵便メール:
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
以下は、特定の Web ページをクロールする Python で書かれた単純な Web クローラーの例です (たとえば、https://example.com
, ただし、実際に使用する場合はクロールが許可されている実際のWebサイトのタイトル(Title)に置き換えて印刷する必要があるので注意してください。実際の Web サイトに直接アクセスしてスクレイピングするには、著作権や法的問題が伴う可能性があるため、ここでは概念的な例のみを提供します。
このタスクを実行するには、Python のrequests
HTTPリクエストを送信して使用するライブラリBeautifulSoup
HTML コンテンツを解析するライブラリ。これらのライブラリをまだインストールしていない場合は、pip 経由でインストールできます。
- bash复制代码
-
- pip install requests beautifulsoup4
完全なコード例は次のとおりです。
- # 导入必要的库
- import requests
- from bs4 import BeautifulSoup
-
- def fetch_website_title(url):
- """
- 抓取指定网页的标题并返回。
-
- 参数:
- url (str): 需要抓取的网页的URL。
-
- 返回:
- str: 网页的标题,如果抓取失败则返回None。
- """
- try:
- # 发送HTTP GET请求
- response = requests.get(url)
-
- # 检查请求是否成功
- if response.status_code == 200:
- # 使用BeautifulSoup解析HTML内容
- soup = BeautifulSoup(response.text, 'html.parser')
-
- # 查找网页的<title>标签
- title_tag = soup.find('title')
-
- # 如果找到<title>标签,则返回其内容
- if title_tag:
- return title_tag.get_text(strip=True)
- else:
- return "No title found."
- else:
- return f"Failed to retrieve the webpage. Status code: {response.status_code}"
- except requests.RequestException as e:
- return f"Error fetching the webpage: {e}"
-
- # 示例URL(请替换为我们要抓取的网页的URL)
- url = 'https://example.com'
-
- # 调用函数并打印结果
- title = fetch_website_title(url)
- print(f"The title of the webpage is: {title}")
知らせ:
(1) 原因https://example.com
たとえば、 はプレースホルダーなので、実行時にクロールできる有効な Web ページ URL に置き換える必要があります。
(2) クローラーは、実行時にターゲット Web サイトの要件に準拠する必要があります。robots.txt
この文書では、ウェブサイトの著作権とアクセス制限の尊重について規定しています。
(3) 一部の Web サイトでは、ユーザー エージェント チェック、頻度制限などのクローラー対策メカニズムが設定されている場合があります。リクエスト ヘッダー (たとえば、User-Agent
)、またはプロキシなどの方法を使用してこれらの制限を回避します。
(4) より複雑な Web ページ構造またはより高度なデータ キャプチャ要件については、HTML、CSS セレクター、XPath、およびネットワーク リクエストについてさらに学ぶ必要がある場合があります。
以下は、より詳細な Python クローラー コードの例です。今回は使用します。requests
HTTPリクエストを送信して使用するライブラリBeautifulSoup
実際の Web サイトをクロールするために HTML コンテンツを解析するライブラリ (たとえば、https://www.wikipedia.org
例ですが、実際のクロールはウェブサイトの規定に準拠する必要があることに注意してください。robots.txt
規制と著作権ポリシー)。
まず、インストールされていることを確認してくださいrequests
そしてbeautifulsoup4
図書館。インストールされていない場合は、pip を使用してインストールします。
- bash复制代码
-
- pip install requests beautifulsoup4
次に、次のコードを使用して、Wikipedia ホームページのタイトルを取得して出力します。
- # 导入必要的库
- import requests
- from bs4 import BeautifulSoup
-
- def fetch_and_parse_title(url):
- """
- 发送HTTP GET请求到指定的URL,解析HTML内容,并返回网页的标题。
-
- 参数:
- url (str): 需要抓取的网页的URL。
-
- 返回:
- str: 网页的标题,如果抓取或解析失败则返回相应的错误消息。
- """
- try:
- # 发送HTTP GET请求
- headers = {
- 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'
- } # 设置User-Agent来模拟浏览器访问
- response = requests.get(url, headers=headers)
-
- # 检查请求是否成功
- if response.status_code == 200:
- # 使用BeautifulSoup解析HTML内容
- soup = BeautifulSoup(response.text, 'html.parser')
-
- # 查找网页的<title>标签
- title_tag = soup.find('title')
-
- # 提取并返回标题内容
- if title_tag:
- return title_tag.get_text(strip=True)
- else:
- return "No title found in the webpage."
- else:
- return f"Failed to retrieve the webpage. Status code: {response.status_code}"
- except requests.RequestException as e:
- return f"Error fetching the webpage: {e}"
-
- # 示例URL(这里使用Wikipedia的主页作为示例)
- url = 'https://www.wikipedia.org'
-
- # 调用函数并打印结果
- title = fetch_and_parse_title(url)
- print(f"The title of the webpage is: {title}")
このコードは、最初にリクエスト ヘッダー (headers
)、これには、User-Agent
一部の Web サイトでは、クローラー アクセスを防ぐためにリクエスト ヘッダーをチェックするため、これは実際のブラウザー アクセスをシミュレートするためのものです。次に、指定された URL に GET リクエストを送信し、BeautifulSoup を使用して返された HTML コンテンツを解析します。次に、HTML を検索します。<title>
タグを付け、そのテキスト内容を Web ページのタイトルとして抽出します。最後に、タイトルをコンソールに出力します。
この例では例として Wikipedia を使用していますが、実際のプロジェクトでは常にターゲット Web サイトの内容に従う必要があることに注意してください。robots.txt
クロールの実践が合法的かつ倫理的であることを保証するための文書と著作権ポリシー。