日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

解決scrapy爬蟲報錯 pymongo.errors.DuplicateKeyError: E11000 duplicate key error collection

作者:愛吃肉真是太好了呀 更新時間: 2022-02-18 編程語言

scrapy爬蟲報錯內容

pymongo.errors.DuplicateKeyError: E11000 duplicate key error collection: scrapy_data.qiushibaike index: id dup key: { _id: ObjectId(‘61989dfcfe585e2673d7ee1b’) }, full error: {‘index’: 0, ‘code’: 11000, ‘keyPattern’: {’_id’: 1}, ’
keyValue’: {’_id’: ObjectId(‘61989dfcfe585e2673d7ee1b’)}, ‘errmsg’: “E11000 duplicate key error collection: scrapy_data.qiushibaike index: id dup key: { _id: ObjectId(‘61989dfcfe585e2673d7ee1b’) }”}

2個步驟解決:
1.爬蟲items.py加入_id字段
在這里插入圖片描述
2.我們使用 MongoDB 只能插入字典,但是item 是類似字典所以報錯。
插入數據的時候做一個字典的轉化動作:
在這里插入圖片描述
注:我的scrapy版本是2.5.1

原文鏈接:https://blog.csdn.net/zcm545186061/article/details/121439819

欄目分類
最近更新