抓取一个网站所有图片

发布日期:2023-10-28 09:10:09

可以使用Python中的requests和BeautifulSoup库来抓取一个网站的所有图片。首先,使用requests库获取网站的HTML代码,然后使用BeautifulSoup库解析HTML代码来获取所有的图片链接。最后,使用Python的urllib库下载这些图片。以下是一个示例代码:

python
import requests
from bs4 import BeautifulSoup
import urllib.request
url = \'https://www.example.com\' # 网站的URL
response = requests.get(url) # 获取HTML代码
soup = BeautifulSoup(response.text, \'html.parser\') # 解析HTML代码
img_ta gs = soup.find_all(\'img\') # 获取所有的图片标签
for img in img_ta gs:
img_url = img.get(\'src\') # 获取每个图片的URL
urllib.request.urlretrieve(img_url, img_url.split(\'/\')[-1]) # 下载图片

这个代码将会抓取网站中的所有图片,并将它们保存在当前目录下。请注意,这个代码只能抓取网站中的公共图片,如果网站需要登录或者有反爬虫措施,那么这个代码将会失效。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

近期评论

没有评论可显示。