社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Python

Python 0基础手把手教怎么借助AI编程爬取网页

子晓聊技术 • 昨天 • 7 次点击  

一些同学没什么Python编程基础,但想借助AI编程爬取网页, 这里简单整理下怎么借助AI编程实现。 首先声明, Python基础可以没有,但怎么安装Python环境、怎么运行需要能够自行解决。
这种方式适合简单的网页爬取, 精通Python爬虫的高手绕路。
我们这里以巨潮资讯网为例, 怎么获取巨潮资讯网的资讯。
网站示例:
https://www.cninfo.com.cn/new/commonUrl/pageOfSearch?url=disclosure/list/search&lastPage=index


通过F12打开控制台,打开网络,可以看到网页Headers里对应的network请求, 比如url、请求方式,这里是post。  然后在Response里有json对象。



这时候我们找一款AI工具,不管是deepSeek 或豆包, 有科学上网条件建议用claude 。

我这里以DeepSeek为例,

你是专业的爬虫开发工程师,帮我写一段代码。  请求url为:https://www.cninfo.com.cn/new/hisAnnouncement/query ,  请求方式是post, 返回对象为json。 json数据为{    "classifiedAnnouncements"null,    "totalSecurities"0,    "totalAnnouncement"369734,    "totalRecordNum"369734,    "announcements": [        {            "id"null,            "secCode""002736",            "secName""国信证券",            "orgId""9900004734",            "announcementId""1223837118",            "announcementTitle""关于发行股份购买资产暨关联交易报告书(草案)(上会稿)修订说明的公告",            "announcementTime"1749571200000,            "adjunctUrl""finalpage/2025-06-11/1223837118.PDF",            "adjunctSize"232,            "adjunctType""PDF",            "storageTime"null,            "columnId""09020202||250101||251302||2705",            "pageColumn""SZZB",            "announcementType""01010503||01010701||010109||010112||010799||011701||011719||0129",            "associateAnnouncement"null,            "important"null,            "batchNum"null,            "announcementContent""",            "orgName"null,            "tileSecName""国信证券",            "shortTitle""关于发行股份购买资产暨关联交易报告书(草案)(上会稿)修订说明的公告",            "announcementTypeName"null,            "secNameList"null        },  ],    "categoryList"null,    "hasMore"true,    "totalpages"12324}   。


把文件提交给DeepSeek,这时候代码就生成了。


把代码复制到Python环境中点击运行, 控制台正常打印,excel也生成了。


相关文章推荐:

[python爬虫]怎么用 python爬取网页

[python爬虫]谷歌浏览器驱动安装及selenium的安装与使用selenium爬取简单的淘宝商品页

【python爬虫】python爬取豆瓣top250电影

【python爬虫】图形验证码识别的几种技术实现方案

【Python爬虫】揭秘JS逆向:网站背后的秘密花园

【Python技术】抓取同花顺财务数据


题外话:

现在AI时代, 我们完全可以借助AI编程 完成很多以前很难想象的事情。  只要你有想法,基本上可以借助AI去实现。


如果我分享的内容对你有所启发有所帮助,麻烦帮我点个赞点个关注。



Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/183195
 
7 次点击