一些同学没什么Python编程基础,但想借助AI编程爬取网页, 这里简单整理下怎么借助AI编程实现。 首先声明, Python基础可以没有,但怎么安装Python环境、怎么运行需要能够自行解决。这种方式适合简单的网页爬取, 精通Python爬虫的高手绕路。我们这里以巨潮资讯网为例, 怎么获取巨潮资讯网的资讯。https://www.cninfo.com.cn/new/commonUrl/pageOfSearch?url=disclosure/list/search&lastPage=index
通过F12打开控制台,打开网络,可以看到网页Headers里对应的network请求, 比如url、请求方式,这里是post。 然后在Response里有json对象。
这时候我们找一款AI工具,不管是deepSeek 或豆包, 有科学上网条件建议用claude 。
我这里以DeepSeek为例,
你是专业的爬虫开发工程师,帮我写一段代码。
请求url为:https:
请求方式是post, 返回对象为json。 json数据为{
"classifiedAnnouncements": null,
"totalSecurities": 0,
"totalAnnouncement": 369734,
"totalRecordNum": 369734,
"announcements": [
{
"id": null,
"secCode": "002736",
"secName": "国信证券",
"orgId": "9900004734",
"announcementId": "1223837118",
"announcementTitle": "关于发行股份购买资产暨关联交易报告书(草案)(上会稿)修订说明的公告",
"announcementTime": 1749571200000,
"adjunctUrl": "finalpage/2025-06-11/1223837118.PDF",
"adjunctSize": 232,
"adjunctType": "PDF",
"storageTime": null,
"columnId": "09020202||250101||251302||2705",
"pageColumn": "SZZB",
"announcementType": "01010503||01010701||010109||010112||010799||011701||011719||0129",
"associateAnnouncement": null,
"important": null,
"batchNum": null,
"announcementContent": "",
"orgName": null,
"tileSecName": "国信证券",
"shortTitle": "关于发行股份购买资产暨关联交易报告书(草案)(上会稿)修订说明的公告",
"announcementTypeName": null,
"secNameList": null
}, ],
"categoryList": null,
"hasMore": true,
"totalpages": 12324
} 。
把文件提交给DeepSeek,这时候代码就生成了。
把代码复制到Python环境中点击运行, 控制台正常打印,excel也生成了。
相关文章推荐:
[python爬虫]怎么用 python爬取网页
[python爬虫]谷歌浏览器驱动安装及selenium的安装与使用selenium爬取简单的淘宝商品页
【python爬虫】python爬取豆瓣top250电影
【python爬虫】图形验证码识别的几种技术实现方案
【Python爬虫】揭秘JS逆向:网站背后的秘密花园
【Python技术】抓取同花顺财务数据
题外话:
现在AI时代, 我们完全可以借助AI编程 完成很多以前很难想象的事情。 只要你有想法,基本上可以借助AI去实现。
如果我分享的内容对你有所启发有所帮助,麻烦帮我点个赞点个关注。