共計 676 個字符,預計需要花費 2 分鐘才能閱讀完成。
要使用 Python 爬取網站的所有鏈接內容,可以使用 Python 的 requests 庫發送 HTTP 請求和 BeautifulSoup 庫解析網頁。
下面是一個基本的示例代碼:
import requests
from bs4 import BeautifulSoup
def get_links(url):
response = requests.get(url) # 發送 HTTP GET 請求
soup = BeautifulSoup(response.content, 'html.parser') # 使用 BeautifulSoup 解析網頁內容
links = []
for link in soup.find_all('a'): # 找到所有 a 標簽
href = link.get('href') # 獲取鏈接地址
if href:
links.append(href)
return links
# 測試示例
url = 'https://example.com' # 要爬取的網站鏈接
links = get_links(url)
for link in links:
print(link)
在上述代碼中,get_links
函數接受一個 URL 參數,并使用 requests.get
函數發送 HTTP GET 請求獲取網頁內容。然后使用 BeautifulSoup 庫將網頁內容解析為 BeautifulSoup 對象。接著,使用 find_all
方法找到所有的 標簽,再逐個獲取鏈接地址,并添加到鏈接列表中。最后,返回鏈接列表。
你可以將 url
變量設置為你要爬取的網站鏈接,然后使用 get_links
函數獲取該網站的所有鏈接內容,并按需進行處理。
丸趣 TV 網 – 提供最優質的資源集合!
正文完
發表至: Python
2023-12-22