社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  aigc

AIGC对传播学定量研究的意义

刘德寰 • 2 周前 • 113 次点击  

摘要


人工智能内容生产对于学术研究产生了巨大的影响力,从生产力的角度重塑了学术研究的范式。本文通过分析AIGC(人工智能内容生成)对传播学定量研究的影响,探寻其对于文献综述、数据收集处理和数据分析的意义。结果表明,AIGC在以上三个环节当中都能起到不同程度的功能性作用,但仍然存在一定的机器局限性。主要表现为在功能性方面有待提升,在思辨性方面不尽人意。研究强调了人类独有思辨思维的不可替代性,并针对基于机器固定算法的主观生成提出质疑,认为这种方式可能破坏社会科学研究的客观性质。

关键词:AIGC 定量研究 文献综述 数据收集处理 数据分析


01

传播学定量研究现状

本文旨在探索人工智能内容生成(AIGC)在传播学定量研究中的应用及其所带来的革命性变革。随着AI技术的迅速发展,学界见证了这一领域的“内爆”现象,该概念发轫于麦克卢汉,指的是媒介技术内部的剧烈变革如何深刻影响社会结构和人类行为模式[1]。AI技术不仅重新定义了内容生产的方式,也为传播学的定量研究,开辟了新的途径。本文以回顾传播学定量研究的传统方法和挑战为切入口,随后深入探讨AI如何助力优化这些挑战进而通过揭示AI与传播学研究者之间的互补和互助关系,为未来的学术探索提供新的视角和方向。传播学的定量研究采用量化方法,深入探索媒介内容、受众行为与社会影响的关系。同时研研究方法包括问卷调查、内容分析、实验研究和数据分析等。但在中国,传播学定量研究主要依赖内容分析,研究方法显得不够丰富。有学者研究提出:由于传播学学科本身对于数理逻辑、数据分析的忽视,导致仅有的具有研究方法的研究也仍是以内容分析为主,而数据分析、数理推断类的研究更是难以找到[2]。


虽然以上技术在揭露和阐释传播现象上扮演了关键角色,但当面临大量样本研究时,数据收集的成本与时间效率问题尤为突出,这些问题是导致本研究探讨AIGC在传播学量化研究中潜在价值的动因之一。事实上,在“观测数据———回归分析”模式下发现的解释变量和因变量 (被解释变量) 之间统计学意义上的显著性关系,往往只是相关关系,而这些相关关系通常可以通过非控制性质的研究直接得到[3]。与此同时,定量研究中得到的相关关系并不意味着因果关系 ( correlation does not imply causation) [4]。但是在传播学的研究中,仍然存在通过使用相关性的研究设计总结出因果性结论的研究。并且与其他学科不同,传播学作为计算社会科学应用不断增长的主要领域,对于方法转换带来的因果关系变革、解释与预测取向却较少讨论[5]。传播学定量研究的卓越成果建立在三大基石之上:深刻的文献回顾和牢固的理论基础、高质量的数据来源及其逻辑结构,以及精确的分析和推理技能。鉴于此,本研究致力于评估AIGC技术提升传播学定量研究方法与效率的可能性,探讨其在替代或优化研究流程各环节的能力。此外,本文也旨在探究AIGC是否具备改变传播学定量研究现状的能力,尤其是在简化数据分析过程方面。虽然现有文献广泛认可AIGC的潜能,但对其具体功能及应用领域的探讨尚显不足。在此基础上,本文将深入分析AIGC在传播学研究中能够发挥作用的具体环节及其局限。研究将从分析传播学定量研究的发展现状和AIGC技术的最新功能入手,继而深入探讨AIGC在文献综述编纂、数据搜集与处理,以及复杂数据分析方面的实际应用,最终从功能性和思辨性的视角审视AIGC技术的限制。


02

AIGC与文献综述

文献综述在传播学定量研究中扮演着关键角色,它不仅为整个研究流程奠定了坚实的理论基础和框架,而且对于定量研究中的数据分析环节也提供了理论支撑。这一过程确保了研究讨论部分的严谨性和深度,使之在后续分析中展现出更高的论证严密性。因为除了对数据的分析以外,构建变量间的理论联系也极为重要,不仅能帮助我们有效地建立起对应的逻辑关系,也有助于我们重新思考实证分析的结果和研究的过程[6]。因此,编写高质量的文献综述是学术研究过程中至关重要的一环,不仅为研究提供理论支撑和背景,同时也是一项既耗时又劳力密集的任务。近年来,AIGC技术已展现出其在简化流程和加速生成文献综述中的巨大潜力,充当了研究人员的“数字学术助手”。朱永新等人研究强调了ChatGPT在处理专业学术问题、促进科研创新的优势,指出研究者可以利用该技术高效地检索、阅读并总结关键文献,从而显著提高文献综述的编写效率[7]。此外,学者邓建国提出,像AIGC这样的技术不仅能作为人类记忆和书写能力的辅助工具,还能拓展我们处理和创造知识的方式,实现人机协作,重塑信息的生成和应用过程[8]。因此,AIGC代表着一种创新的人机协同模式,打破传统的界限,为学术研究和文献综述工作提供了新的视角和工具。

表1显示,AIGC技术在辅助收集文献和草拟文献综述初稿方面具有显著优势,但是试图通过AI生成完整的文献综述是极具挑战的。首先,由于对特定主题的参考文献覆盖不全面,AIGC生成的文献综述可能缺乏所需的历史深度和领域广度。其次,受限于对非开放访问资源的获取,AIGC有时依赖于对公开摘要的浅层分析,忽略了文献的深入内容,导致对研究细节的理解不足。第三,AIGC在处理尚未广泛探索的理论或方法时可能会生成不准确或虚构的信息,特别是在文献资源稀缺时,其“填补知识空白”的能力可能导致虚假引用的产生。第四,AIGC的分析模式相对单一,无法模仿人类对不同理论层次的多维度分析,限制了其在理论深度和广度上的应用,有学者指出:机器架构、算法和社会网络并不能准确地模拟人类的认知过程[9],所以也就不能够多维度地模仿人类的分析行为。最后,尽管AIGC能够提供文献综述的初稿,但缺乏对领域内研究问题的全面理解和分析,导致生成的综述可能无法完全满足学术标准。


尽管存在上述挑战,AIGC仍然在文献综述的某些方面展现出辅助潜力。它能有效收集开放访问的期刊文章和书籍,为研究者提供文献综述的基础材料。在文献综述的撰写和修订过程中,AIGC能够按照指定风格进行写作和修改,辅助研究者分析案例和提供初稿。


综上所述,AIGC技术为传播学定量研究的文献综述带来了新型的工具和方法,不仅在效率和广度上有所提升,还为传统的研究方法提供了有力的补充。作为一种扩展研究视野和提升研究效率的重要工具,AIGC对于传播学研究方法的深化和创新具有重要意义。尽管AIGC在独立完成高质量文献综述方面仍存在一定局限,但其辅助研究、提升效率的作用不容忽视。因此,研究者在利用AIGC技术的能力时,应当审慎评估其局限,积极探索人机协作的最佳模式,以促进传播学研究的深入发展和创新。


03

AIGC收集与处理数据

(一)基本生成模型NLP与Transformer  

AIGC在文本和数据处理方面的能力并非一蹴而就地实现,而是经历了逐步的演进过程。特别是,生成式人工智能技术的显著进步,很大程度上归功于模型和算法的发展,其中引入的Transformer架构在这一进程中起到了关键作用。最初为解决自然语言处理(NLP)问题而设计的Transformer架构,采用了创新的编码器-解码器机制,这一机制有效地取代了先前广泛依赖的循环神经网络(RNN)[10]。RNN在处理序列数据时的固有缺陷,例如无法实现并行处理、处理速度慢,以及在处理长序列数据时面临的长期依赖问题导致的信息丢失,都是Transformer架构旨在解决的问题。在自然语言处理的研究领域内,重点关注理解与生成这两个互补的核心任务。高质量文本的生成依赖于对输入文本深入地理解,其中,语言模型通过转换文本序列来执行文本创造的过程,涉及到机器翻译、内容摘要、对话系统等多种应用,文本生成技术正朝着增强可控性和实现多模态交互的方向发展。


尽管有LSTM(长短期记忆网络)、GRU(门控循环单元)等模型的改进尝试,以优化循环神经网络的性能,但以上问题仍未得到根本解决。Transformer的出现不仅有效克服了这些困难,提升了处理效率,其高效的特性也使其被广泛应用于语言、图像及数据处理等多个领域。得益于多种新模型的引入和持续改进,AIGC在数据收集与处理领域发挥了重要作用。鉴于本文的焦点不在于深入探讨计算机科学的细节原理,故在此对相关内容仅作简要概述,以便于理解。


(二)数据的收集  

AIGC在数据收集方面的应用如下表所示(见表2)。

AIGC在收集互联网数据方面的智能化程度,并未达到学者们所期望的理想状态,通过AIGC直接进行传播学定量研究中的内容分析几乎是不可能的。以与GPT4.0的对话为例,本研究尝试利用GPT-4.0,收集有关2024年1月1日在推特平台上,通过使用中文发布的包含“新年快乐”字样的推文数量,GPT-4.0模拟的数据显示大约有73,494条相关推文。然而,这个数字是基于假设性模拟得出的,并不能准确反映实际情况。特别是当询问数据的真实性时,GPT-4.0清楚地指出:“提供的数据不是基于推特的实时信息,而是根据预设参数的模拟结果”。由于GPT-4.0无法直接访问推特或其他实时数据源获取确切信息,建议通过推特的搜索功能或其提供的API来进行详细数据查询。


GPT的这一回应暴露了其在处理实时网络数据方面存在的局限性,尽管提到了通过API爬取数据的可能性,但没有提供具体的实施支持,仅仅是概述了一个基础的数据爬虫框架。然而,对于具备一定编程能力的研究者,AIGC能够提供初步的编程框架作为帮助,指导他们根据具体需求调整和完善数据爬取的脚本。这种方式对于懂得如何运用这些技术的研究者来说,无疑加速了数据收集和处理的过程。但对于非编程技术背景的学者来说,AIGC在直接的数据收集方面提供的帮助有限,凸显了技术门槛对AI研究效率的影响。


尽管直接访问特定数据源存在限制,AIGC还是能够辅助收集和整理广泛的开源数据,例如天气信息或国家统计数据,这些数据可以为研究提供基础支持。AIGC不仅能概括这些数据的关键信息,还能指向数据来源,增加研究的透明度和验证性。这种辅助在处理公开可获得的数据时显得尤为有价值。然而,对于这些数据是否能够真正提高研究者在数据收集环节的效率,目前尚无法得出明确的结论。因为许多研究者已经能够通过各大数据库直接获取所需的开源数据,而在这个过程中AIGC的介入可能会增加不必要的步骤和徒增复杂性。


(三)数据的处理  

众所周知,处理数据(或清洗数据)通常耗费巨大的时间成本和人力成本,同时由于是细致的重复性工作,稍有疏忽就容易导致多次返工或数据越处理越复杂的情况出现。生成式AI的介入,通过提升处理效率和辅助找寻错误的方式,一定程度上解放了相关研究人员的生产力,能够将更多的宝贵时间分配至其余的环节。

AIGC在处理数据这一环节表现较为优异,基础的处理方式它都可以自动地完成,并且可以针对研究者不同的处理需求提供多种解决方式。以补充缺失值和异常值为例,AIGC通过一些基础的数理方式(使用众数或中位数)对这些值进行补充和修改。而且它能够直接在原数据文件上进行一系列的数据处理,并将处理好的新数据发送给研究者,这极大程度地提升了定量研究当中清洗数据的效率,解放了研究者的生产力,同时降低了一些数据处理的门槛。经过多角度的分析,我们可以得出结论,AIGC中的基础生成模型与NLP技术的进展,为传播学研究注入了新的活力,特别是在文本分析、内容生成及数据处理等关键环节上。AIGC促进了数据采集的便利性,提升了数据准备工作的效率,使研究人员能更快速地进入分析阶段,从而有更多精力专注于研究设计与结果解读。这些技术的应用,无疑极大地提高了研究工作的效率,同时推动了研究方法的革新,为传播学研究拓展了全新路径。然而,技术的局限性和挑战也要求研究者在应用过程中保持批判性思维,综合考虑研究设计的有效性和数据的准确性。随着AIGC技术的不断发展和完善,其在传播学定量研究中的应用将越来越广泛,对研究实践和理论发展产生深远影响。


04

AIGC与数据分析

(一)数据分析方法  

数据分析是定量研究的关键环节,同时也是量化步骤的体现,因此需要高质量的数据和分析思维。已经有一些学者提出AIGC对于数据分析当中可能帮助相关分析、预测模型和回归方程等,但未深入到具体分析方法当中。


本文选用在数据分析环节中最常见的几种分析方法逐一进行尝试,并通过表格的形式呈现AIGC能否应用于相关环节,旨在探索AIGC对于数据分析部分究竟能起到何种作用。从检验一个数据的信效度的部分开始,AIGC都能够通过一系列的代码进行计算,以信度和效度计算为例,GPT4.0使用python语言的Cronbachs  Alpha函数对数据集进行计算分析,并且在计算过程中还会给研究者提供包含完整步骤的代码,以便于研究者学习和检查错误。

因子分析是AIGC在整个研究当中表现最差的环节,其根本原因在于它对于数据结构的理解不完整。首先,它不能够有效地识别数据当中哪些是量表,需要研究者人为整理归纳后再做出指令。其次,在经过多次优化尝试不同的指令和更换简化结构的数据后,AIGC仍然存在无法有效将因子聚类分析的问题。最后,经过检查代码发现在因子分析的环节中它遗漏了重要的旋转因子步骤,原因在于标准的FactorAnalysis类代码在sklearn库中不直接支持旋转,导致生成的结果是不存在统计学意义的。


在采用AIGC技术进行Logistic回归分析过程中,本文发现AI技术能够辅助研究者识别适合进行Logistic回归的变量,这一发现为缺乏充分统计学和数学基础的研究者提供了支持。特别是对于初涉量化分析领域的研究者,他们往往面临难以确定哪些变量之间应采用何种分析方法,以及如何有效区分不同变量属性的疑虑,这些困难可能导致构建的模型存在缺陷或低级错误。AI通过数据分析,指导研究者哪些变量间适合进行Logistic回归,显著降低了数据分析的复杂性。然而,需要注意的是,AI在变量分类和归纳的准确性方面受到数据集结构复杂度的影响,其准确率有待提高。毕竟AIGC的主要强项在于内容“生成”,其在分析解释方面的能力相对较弱是可以理解的。


然而,AIGC在辨识模型错误方面存在局限。如果研究者未能向AI详细描述变量的属性,AI可能会忽视基本的统计学逻辑。以Logistic回归为例,若使用非1,0变量,AI仍能生成模型和相应图表。为了生成指定内容,AI选择捏造部分数据内容和变量,这些并不符合Logistic回归的基本计算方程。因此,在使用AIGC工具时,研究者需保持谨慎,并充分理解其局限性和潜在风险。


除此之外,在用户上传数据时也存在局限性,通过向GPT-4.0上传数据包还发现以下问题,首先它的分析基础是建立在python语言应用基础上的,AI会通过基础代码的编写尝试读取用户上传的数据包。但它局限于仅能读取CSV和Excel格式的数据,并且对于数据包的大小和数据结构的复杂程度也存在限制。


AIGC的解决策略是尝试加载用户所指定的特定工作表。当文件内包含多个工作表时,通过指定单一工作表,可以有效提升加载效率。另一种策略是对数据进行分块处理,尤其适用于大规模数据集。在此情境下,AIGC会考虑分批次加载并分析数据,而非一次性加载整个文件。然而,此种方法可能会对数据完整性造成影响,并增加数理性错误的风险,使得个人研究者在将AIGC融入数据分析过程中仍面临许多挑战。


(二)数据的可视化  

数据可视化是一种将复杂数据集以图形或图像形式呈现的方法,旨在便于识别模式、趋势和异常值。借助AIGC技术,能够产出高质量、多样化的视觉素材,对于数据分析和解释具有关键意义。在生成高质量、多样化图像方面,AIGC技术,如生成对抗网络(GANs)、变分自编码器(VAEs)及扩散模型(DMs),取得了显著成果。有学者详细分析了认知理论、信息可视化理论以及人机交互和用户界面理论,并讨论了主流大数据应用的信息可视化技术和支持可视化分析的人机交互技术[11]。以上成果对数据可视化具有重要意义,因为它们允许创建高度详尽且准确的复杂数据集表征,从而更容易识别数据中的模式和趋势。


图1展示了GPT4.0生成的可视化数据图表XGBoost回归模型对特定数据集进行的深入分析。XGBoost,全称为Extreme Gradient Boosting,是一个功能强大的机器学习库,其基于梯度提升算法,特别适合处理非线性、高维度的复杂数据集。图中的点代表了训练数据集的实际观测值,这些点是模型进行学习的基础。而线条则描绘了XGBoost模型对这些数据的预测趋势,即给定X值的情况下,模型预测的Y值的变化情况。通过这种方法,模型能够捕捉到X与Y之间的潜在关系,并以预测线的形式展示出来。XGBoost模型在处理复杂数据集时具有强大的能力,尤其是在捕捉和预测非线性关系方面具有优势。通过这张图,我们可以清晰地看到AIGC在数据可视化方面令人惊讶的表现。

在命令AIGC根据数据模型生成相关图表时发现,它能够根据用户的要求生成特定种类的图表,例如直方图、散点图、茎叶图和折线图等等。在整个生成图表的环节当中,AI都会自动附上完整的python代码,并且AIGC工具还可以对图表进行二次编辑,例如提高图表分辨率和美化图表等功能,使得数据可视化变得更加易于上手。AIGC能够提高数据可视化质量,通过生成高分辨率和高质量的图像,使得数据的展示更加清晰和吸引人。并且增强数据理解,通过将数据转化为图像或视频,使得非专业人士也能理解复杂的数据集和分析结果。因此,AIGC技术的进步为数据可视化提供了强大的工具,使得复杂数据的展示和理解变得更加容易和有效。


本文论证了AIGC在定量研究数据分析环节中的重要作用。AIGC的应用正逐步降低基础数理分析的难度,将原本耗费研究者大量时间的任务交由AI完成,极大提高了工作效率。让研究者从繁琐定量研究的学术写作中解放,可以将更多注意力和精力转移到深度批判性思考中去。然而,目前的技术尚不足以让完全不具备数据分析知识的研究者仅依赖AI完成全面深入的数据分析工作,它更多地起到了降低分析难度的辅助作用。


综上所述,AIGC技术在传播学定量研究中的应用具有深远意义,主要体现在以下三个方面。其一,方法论创新。AIGC技术的引入,为传播学定量研究带来了新的数据分析和可视化工具,有效地促进了方法论的突破和创新。通过运用这些先进的工具,我们可以更深入地挖掘数据价值,为学术研究提供更加坚实和科学的支撑。其二,效率与效果的提升。AIGC技术通过流程化、机械化的数据处理和高质量的数据可视化,显著提高了研究效率和结果的展示效果。这使我们能够在有限的时间内处理更多的数据,更快速地得出结论,为学术研究和实际应用提供了更加高效的支持。其三,深度思考与人机协作。虽然AIGC技术在数据处理和分析方面具有显著优势,但其局限性和挑战也强调了人类研究者在深度思考和理解数据分析过程中的不可替代性。因此,我们需要重视人机协作的重要性,充分发挥人类的智慧和创造力,确保研究的深度和广度。AIGC技术为传播学定量研究带来了便利和创新,但同时也要求研究者深入理解技术的应用范围和局限性。研究者应该以科学的态度和方法,合理利用这些技术,确保研究的准确性和科学性。


05

结论与讨论

本研究考察了AIGC在传播学定量研究中的应用,特别关注于文献综述、数据收集处理以及数据分析三个关键环节。不同于以往聚焦于AIGC技术潜在风险的研究,本文更深入探讨了AIGC对传播学研究具体功能性的影响。本研究刻意回避了数据隐私、算法偏见、学术道德和版权等议题,转而聚焦于AIGC在传播学定量研究中人机协作的步骤。本文将“人”的概念细化为研究者,深入探究研究者与人工智能之间的互补与互动关系,探讨了研究者与AIGC的互补和互动关系,发现具备较高媒介素养和计算机科学能力的研究者能更有效地利用这项技术。虽然AIGC在传播学定量研究的某些功能性环节中可发挥重要作用,但其在思辨性方面的作用受限。首先,功能性方面的限制包括个体研究者在多个AIGC平台上受到的算力配额限制,这阻碍了对大型数据集的处理能力。


从思辨性方面来讲,人工智能存在固有的思维范式,或者说固定的算法,那么可以说智能机器是存在一定主观思考的能力。许鑫和刘伟超指出“ChatGPT作为一款智能信息工具,不仅可以被用于处理客观信息,也隐藏着被用于实施主观认知对抗的相应可能”[12]。只是相对于人而言,机器的主观思考体现在固定的算法和编程上面,并不完全等同于人类具有意识形态的思维网络。社会行为主义者赫伯特-米德(Herbert Mead)指出,“自我”是从一个社会过程中发展出来的,它永远无法与之隔离或切断,而这个社会过程实际上是一系列 “手势对话”或社会反馈[13]。结合前面对AIGC模型原理的解释,可以得出AI有 “智慧”,有 “思想或自我”,那么它就是基于固定科技算法原则反馈的智慧,是一种科技型的自我。以上引发了关于AI在学术研究中生成内容的可信度问题。AI生成的内容可能包含特定的主观色彩和意识形态,这对其在学术领域内的可信度构成挑战。这也促使人们思考,研究者过分依赖AI进行文献分析和数据解析可能会对社会科学研究的客观性造成影响。


因此,人工智能未能触及的领域恰恰凸显了高等教育的核心价值所在:即培育人的独特的逻辑思考、智力的广泛多样性、对不同文化的适应力,以及不断创新的能力。这些能力对于提高学术研究的深度和质量具有不可替代的重要性。古代哲学家如亚里士多德、柏拉图和笛卡尔均认为,人类的理性思维是其独特性的核心[14]。虽然计算机在迅速筛选和整理数据方面表现出了卓越的能力,但人类思维的多维性和深邃性是机器所无法模仿的。这一独有的特质使得人类能够依托于复杂的价值体系和丰富的经验进行创新性思考、深入的批判性分析和合理的决策制定,这对于科学研究和学术追求至关重要。在应对复杂问题的过程中,人类不仅能够运用演绎和归纳的思维方式,还能跨越多个学科领域,整合不同的文化观点,从而不断推进创新的界限和深化理解。



参考文献:

[1] 石涎蔚.技术时代的“内爆”:从麦克卢汉、鲍德里亚到哈拉维[J].现代传播(中国传媒大学学报),2023,45(05):21-29+36..

[2]刘德寰,赵竞鹤.构筑新闻传播研究的方法基线[J].传媒,2023(20):14-17.

[3] Pearl J. The new challenge: From a century of statistics to the age of causation[C]//IASC Second World Congress, Pasadena, CA, February 1997: 415-423.

[4] Aldrich J.Correlations Genuine and Spurious in Pearson and Yule[J].Statistical Science, 1995(4):364-376.

[5] 李雪莲,刘德寰.预测与解释:走向因果表征的传播学[J].国际新闻界,2023,45(07):157-176.

[6] 王刚,吴星漫.从统计推断到因果推断:传播学定量研究中的内生性问题[J].新闻与传播研究,2021,28(04):19-37+126.

[7] 朱永新,杨帆.ChatGPT/生成式人工智能与教育创新:机遇、挑战以及未来[J].华东师范大学学报(教育科学版),2023,41(07):1-14.

[8] 邓建国.“延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT[J]. 新闻大学,2023(4): 25-37+120.

[9]杜骏飞:何以为人? ———AI兴起与数字化人类[J],南京社会科学,2023(03).

[10] 陈永伟.超越ChatGPT:生成式AI的机遇、风险与挑战[J].山东大学学报(哲学社会科学版),2023(03):127-143.

[11] Zhu W .A Study of Big-Data-Driven Data Visualization and Visual Communication Design Patterns[J].Scientific programming, 2021(Pt.12):2021.

[12] 许鑫,刘伟超.ChatGPT热潮中的冷思考:警惕信息工具用于认知对抗[J].文化艺术研究,2023(01):72-75+114.

[13] (美)乔治·赫伯特·米德著,霍林桓,心灵、自我与社会[M],北京:华夏出版社,1999:45.

[14] (英)安东尼·塞尔登,奥拉迪梅吉·阿比多耶著,吕晓志,第四次教育革命:人工智能如何改变教育,北京:机械工业出版社,2019:226.




作者简介



@刘德寰

北京大学博雅特聘教授,北京大学新闻传播学科学术委员会主任,北京大学新媒体研究院教授、博士生导师、副院长,北京大学新闻与传播学院教授、副院长,北京大学市场与媒介研究中心主任

 @张涵

北京大学新媒体研究院博士研究生



⭐️点击名片,关注更多精彩内容:




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/181024
 
113 次点击