17370845950

Python爬虫怎样使用CSV存储数据_Python爬虫将抓取结果保存为CSV文件方法
答案:Python爬虫可用csv模块或pandas将数据保存为CSV文件。1. 使用csv模块可写入表头和数据,适合结构化信息存储;2. pandas能自动处理编码与中文,导出更便捷;3. 需用try-except处理异常,with确保文件安全关闭。

Python爬虫抓取数据后,使用CSV格式存储是一种简单高效的方式。CSV文件可以用Excel打开,也便于导入数据库或进行数据分析。下面介绍如何在爬虫中将结果保存为CSV文件。

1. 使用内置csv模块写入数据

Python自带的csv模块非常适合处理结构化数据。适合存储表格类信息,比如商品名称、价格、链接等。

基本步骤:

  • 导入csv和open函数打开文件
  • 创建csv.writer对象
  • 写入表头(可选)
  • 逐行写入爬取的数据

示例代码:

import csv
import requests
from bs4 import BeautifulSoup

模拟请求网页

url = "https://www./link/ebae6bc5deeca109d899c4ec7d9d30c0" response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser')

提取数据(示例)

products = [] for item in soup.findall('div', class='product'): name = item.find('h2').text.strip() price = item.find('span', class_='price').text.strip() link = item.find('a')['href'] products.append([name, price, link])

写入CSV文件

with open('products.csv', 'w', newline='', encoding='utf-8') as f: writer = csv.writer(f)

写入标题

writer.writerow(['Name', 'Price', 'Link'])
# 写入每条数据
writer.writerows(products)

2. 使用pandas更方便地导出CSV

如果你已经用pandas做数据处理,可以直接把列表或字典转成DataFrame再保存。

优点:自动处理编码、支持中文、列对齐整齐。

import pandas as pd

假设数据是字典列表

data = [ {'Name': '手机', 'Price': '¥2999', 'Link': 'https://www./link/3688bc5db453523746c83fbedd11a267'}, {'Name': '耳机', 'Price': '¥199', 'Link': 'https://www./link/3cd9fd588c126cc9043850408c2c19ab'} ]

转为DataFrame并保存

df = pd.DataFrame(data) df.to_csv('products_pandas.csv', index=False, encoding='utf-8-sig')

注意:保存中文时建议用utf-8-sig编码,避免Excel乱码。

3. 处理异常与确保文件安全关闭

网络爬虫可能遇到请求失败、数据缺失等问题,需做好容错。

  • 使用try-except捕获异常
  • 始终用with语句操作文件,确保自动关闭
  • 检查字段是否存在再写入,防止报错

例如:

try:
    with open('data.csv', 'w', newline='', encoding='utf-8') as f:
        writer = csv.writer(f)
        writer.writerow(['Title', 'URL'])
        for item in items:
            title = item.get('title', '未知')
            url = item.get('url', '')
            writer.writerow([title, url])
except Exception as e:
    print(f"保存文件出错: {e}")

基本上就这些。用csv模块适合轻量级项目,pandas更适合后续分析。根据需求选择方法就行。