一些同学没什么Python编程基础,但想借助AI编程爬取网页, 这里简单整理下怎么借助AI编程实现。 首先声明, Python基础可以没有,但怎么安装Python环境、怎么运行需要能够自行解决。这种方式适合简单的网页爬取, 精通Python爬虫的高手绕路。我们这里以巨潮资讯网为例, 怎么获取巨潮资讯网的资讯。https://www.cninfo.com.cn/new/commonUrl/pageOfSearch?url=disclosure/list/search&lastPage=index
通过F12打开控制台,打开网络,可以看到网页Headers里对应的network请求, 比如url、请求方式,这里是post。 然后在Response里有json对象。
这时候我们找一款AI工具,不管是deepSeek 或豆包, 有科学上网条件建议用claude 。
我这里以DeepSeek为例,
你是专业的爬虫开发工程师,帮我写一段代码。 请求url为:https:请求方式是post, 返回对象为json。 json数据为{ "classifiedAnnouncements": null, "totalSecurities": 0, "totalAnnouncement": 369734, "totalRecordNum": 369734, "announcements": [ { "id": null, "secCode": "002736", "secName": "国信证券", "orgId": "9900004734", "announcementId": "1223837118", "announcementTitle": "关于发行股份购买资产暨关联交易报告书(草案)(上会稿)修订说明的公告", "announcementTime": 1749571200000, "adjunctUrl": "finalpage/2025-06-11/1223837118.PDF", "adjunctSize": 232, "adjunctType": "PDF", "storageTime": null, "columnId": "09020202||250101||251302||2705", "pageColumn": "SZZB", "announcementType": "01010503||01010701||010109||010112||010799||011701||011719||0129", "associateAnnouncement": null, "important": null, "batchNum": null, "announcementContent": "", "orgName": null, "tileSecName": "国信证券", "shortTitle": "关于发行股份购买资产暨关联交易报告书(草案)(上会稿)修订说明的公告", "announcementTypeName": null, "secNameList": null }, ], "categoryList": null, "hasMore": true, "totalpages": 12324} 。
把文件提交给DeepSeek,这时候代码就生成了。
把代码复制到Python环境中点击运行, 控制台正常打印,excel也生成了。
相关文章推荐:
[python爬虫]怎么用 python爬取网页
[python爬虫]谷歌浏览器驱动安装及selenium的安装与使用selenium爬取简单的淘宝商品页
【python爬虫】python爬取豆瓣top250电影
【python爬虫】图形验证码识别的几种技术实现方案
【Python爬虫】揭秘JS逆向:网站背后的秘密花园
【Python技术】抓取同花顺财务数据
题外话:
现在AI时代, 我们完全可以借助AI编程 完成很多以前很难想象的事情。 只要你有想法,基本上可以借助AI去实现。
如果我分享的内容对你有所启发有所帮助,麻烦帮我点个赞点个关注。