恐慌叙事下的智能应对
浙江农林大学 2023年校级学生科研训练项目《人工智能在商业推广应用过程中监督体系的路径研究》(2023KX078)研究成果
朱逸玹
作者单位:浙江农林大学文法学院
【摘要】AI背后是一个历史由来已久的叙事问题,这种叙事问题伴随人类跨过历史长河如影随形。当以 Chat GPT为契机掀起新一轮的技术革命时,人类先入为主地接受了具有根深蒂固地位的技术恐慌叙事。智能时代的人类“恐慌”主要体现在信息环境、内容、科技资本和新型“人—技关系”这四个方面,从国家、科技企业、平台和用户这四个维度入手的应对方式是将智能技术限制在规则框架之内的有效之举。
【关键词】智能恐慌;人工智能;应对
一、问题的提出:如影随形的技术恐慌
以人工智能、大数据等为代表的智能技术突袭进我们的时代,人与技术的关系,将在更加广阔的智能传播生态中发生变革。面对临近的“技术奇点”,我们要看到技术扩张背后的种种,综合横向和纵向的眼光来看待人、技术与世界彼此连接的过程,在动态中把握社会发展进程。
人类对技术的恐慌其实是随着进步越发根深蒂固的。当书籍开始象征记录,刚将思想内容印刻在时空之中时,就引起了对于口语文化的担忧。苏格拉底曾在《斐德罗篇》中斥责文字,认为它削弱记忆力、任意撒播以及缺乏互动。电子媒介消解了“时空”的界限,被人们批判为一味地追求功能主义,而忽视了对人感知和记忆的建构。网络媒介“超文本”带来线性逻辑的彻底毁灭、传统媒介的濒危等哀嚎不一而足。移动终端的兴起将人们的目光转向阅读碎片化、注意力缺失等课题,从对信息留存转向对信息获取的担忧。当这些媒介终于内嵌在社会生活中,抵制呼声越来越低时,智能技术成为当下新技术恐慌的主力军。
二、智能恐慌的表现
具有认知模拟、智能识别、自主适应等特性的人工智能成为时代新中心辩题。不同于以往媒介缓和的演进,人工智能以几乎颠覆的方式替代并超越现有的技术框架和媒介范式,其带来的诸多革命性影响也是值得人类从多个层面去审视的。
1.环境恐慌:信息拟态环境的侵占
由于智能技术在社会生活中的深度嵌入,人们对世界的认知越发依赖智能机器。
人工智能将个人包裹在“数字化监狱”之中,逐渐侵蚀信息选择的自主权。在智能时代,个体的一切都将数字化,在“计算宣传”操纵之下人们沦为“算法靶子”。用户陷入个性化导向的娱乐泥沼之中坐井观天、自娱自乐。在这样的环境里,算法权威凌驾于任何话语权之上,这种“数字霸权”是智能时代话语统治和意识形态掌控的本质彰显。
2.内容恐慌:信息繁荣背后的扭曲
随着人工智能在统合与分发知识方面的功能越发强大,在可预见的未来,势必会对整个互联网内容生态产生重大影响。首先,AIGC的不断增殖衍生很可能会挤占其他类型内容的创作与曝光机会,侵占流通空间,而内容把关人的被迫退位将放任 AIGC的泛滥更加不受约束。智能算法掌控的筛选过程会优先保留“同源”内容,人生产的内容被藏匿,话语平权变成剥夺内容生产权力的一个幌子。当传播变得越发便捷,内容反而越发可疑。人工智能会捏造带有某种倾向性和歧视性的话语。在对语境程度有所要求的场景下,生成式 AI只能提取具有语境表面特征的关键词,形成貌似符合该语境的文本符号,这样的浅度模仿极有可能生成具有不良导向的信息。这种对既有信息的侵蚀会造成公共话语、网络事实权威性的削弱以及人与人之间信任、社会凝聚力的崩塌。
3.资本恐慌:权力集团的下放式垄断
过去的技术诞生于发明家和工匠之手,现在的技术诞生于集团之手,技术生产力由过去的释放变成现在经由集团的下放,新技术既是一场革命,更是又一次对资本统治集团权力更强劲的巩固和延伸。“未来的内容将成为被AI中介了的内容,更深层地是被掌握 AI技术的少数统治集团中介了的内容,这将带来新一轮的信息垄断和内容灾难”。在这个“信息即权力”逐渐成真的智能时代,资本集团所掌握的数据会导致其实体价值的无限制膨胀。对于普通公民来说,更感到直接恐慌的是个人信息和隐私问题。个性化算法和人工智能的存在本就暗含着对个体隐私侵犯的风险。在技术权力的视域之下,人在一方面提供从自身主体性分割出来的一部分资源,来彰显其在智能时代的存在价值,另一方面则是被生活中隐匿的权力所监视。在人工智能的加持之下,科技公司将掌握“元权力”,即一种凭借算法和数据统摄一切的权力。
4.“拟人”恐慌:新型“人—技”关系的博弈
在人工智能全面网罗社会的进程中,人类将要面对的一个宏大命题在于——人该走向何处?作为个体存在的人是否会同样被网罗?目前的问题在于,这一次的技术替代效应远超以往,当一个配备超级大脑和“钢铁般”身躯的机器人来面试岗位时,人类就已不剩下太多的竞争空间了。科技资本某种程度的“创造性破坏”业已形成,至少在智能机器应用前期中,得益和为成本买单的显然不是同一批
人。与其说是对技术的恐慌,不如说是对人作为主体的“我者”身份认同逐渐消散的恐慌。智能时代的人机互动打破了历来“人—技”关系中人类主导的关系格局,自动化趋势的不断深化,使“人类中心”这种原本不言自明的认识遭受质疑。当自动化将一切以“非人”取而代之,在逐步扩张的传播边界中,人类更少而机器更多地充当起主导的角色。
三、智能时代的主体应对
技术为一种新的权力正当性提供了可能,但同时也是一种规则架构,一旦权力超出了框架之外,那它的行使权就应当被驳斥。因此,将权力限制在牢笼,又能够将其在妥当的范围内发挥作用是应对智能时代智能赋权力滥用的关键。本文尝试从国家、科技企业、平台、用户这四大主体层面入手,寻求应对之道。
1.监管权力:国家层面
智能恐慌背后浮现的是人工智能带来的多番威胁和对其限制无从下手的社会忧虑,其影响范围在时空上都不可预测,这更加决定了国家要扮演更加主动积极、统领全局的重要角色。在法律层面,国家法治能力和体系必须实现跨越式进步,方能在新时期有所可为。自 AIGC诞生以来,就出现了 AIGC是否涉及侵权、侵权之责任主体难以认定等争议,这些问题只是人工智能所牵涉的法律争议中的很小一部分,却提醒我们,法律依旧是规范人工智能技术研发和使用最有效的选择,但整体司法和立法系统都要做出适当调整,人工智能所涉的产权和隐私保护、信息安全等法律版块都应当尽快进行模糊问题的研究。国家要牢牢把控住人工智能领域意识形态话语权,维护主流意识形态安全,其关键在于,提升主流文化和核心价值观的影响力,强化民族凝聚力,把控好主流意识形态的导向。国家在提升科技硬实力,壮大自身话语实力之余,要将导向价值融入人工智能的理性价值之中,抵御 AIGC中蕴含的西方价值观倾向,利用本国 AI创新成果捍卫中国网络领土安全,对外讲出“中国话语”。
2.技术权力:企业层面(研发者)
技术权力赋予了企业成为源头“把关人”的基础,“是一种软权力,是一种非暴力的生产性权力”。科技企业在推动人工智能治理和技术伦理规范方面有着不可推卸的责任。
人工智能的两大技术关键是“数据库”和“算法模型”,是关系整个应对体系在技术逻辑上能否自洽的重要因素。算法层面,企业应当致力于推动算法设计不断优化,提高算法可解释性、灵活性和透明度,并引入审查机制,在运算关键节点处设置审查,形成全覆盖、自动化的动态审查体系。还要做好常态化人力物力布局,在算法失灵之际可以即时干预形成功能互补。此外,企业要在信任层面做出考量,强调对用户隐私的保护,应当主动向用户公开算法规则与用户数据获取清单,在使用前向用户征询明确的数据采集同意,并告知将在何种情况下对其数据进行处理,规范数据处理程序。数据层面,企业要重视在数据库整体安全和内容方面的建设。包括提高数据的抓取门槛,在源头进行把关,对数据来源进行审查,将恶意来源列入负面清单。企业还要注重在数据质量和训练技术的提升上,确保训练数据的多样性,在大数据基础上挖掘更具深度,更高质量的数据等,以寻求更优质模型。企业应当注重数据规范和道德伦理方面的平衡,在语料库中平衡多元语料的比重,涵盖不同地区、社会阶级等多元群体信息,努力做到数据采集的全面化、多样化。科技企业要处理好公共利益与自身利益的关系,注意工具理性与人文精神的考量,不能一昧地追求机器效益而抛弃人文关怀与感性价值,始终坚持“以人为本”的技术理念。
3.把关权力:平台层面
随着 AIGC在媒体平台上流动比重增加,在缺乏规治的情况下,很有可能会危机平台生态安全。平台对 AI生产的把关主要体现在内容生态的安全性核查和算法推荐上。平台应发挥自身对于网络谣言治理的主体责任,推动内容治理由针对性治理转向整体化的生态治理。在智能时代要提升智能技术影响下的舆论应对等级,积极响应谣言处理政策,迅速、准确地截断网络谣言传播扩散,并追根溯源,打击源头,降低舆论风险性。要将社交机器人的舆论干预降低在可控范围之内,避免大量的烟雾信息遮盖优质内容,将人工内容淹没在无意义的信息之中。平台要持续在算法层面做出努力,鼓励研发更加多元的推荐算法,可以采用算法推荐为主,人工推荐为辅的内容分发方式,在人机互补的基础上发挥各自的效率优势和价值优势,更多地考虑用户的个性化和共性化满足、实时和延迟满足等多种心理回报。
4.使用权力:用户层面
智能时代,仍旧以传统的观念来思考人和人工智能的位置关系是不可取的,在技术配合社会调整自身样态的同时,人也应该适时做出一些过渡性的转变。首先,公众要养成符合智能生态的媒介素养,提高利用智能技术进行劳动生产、辅助个人成长的意识和能力,但也要警惕媒介依赖,保持人的主体性,还要保持对虚假信息、技术滥用等问题的敏感,提高辨识能力,以客观思辨抵御智能风波。其次,公众要成为人工智能规范路径最后的监督者,如督促人工智能更加符合社会生产需要,更加契合道德伦理规范,要意识到智能机器的功能实现依旧需要人的引导。最后,公众要意识到人机共生的全新传播关系局面即将到来,必须抛却以往“技术服从于人”的旧制观念,对“人—技关系”进行全面反思。人类要敢于承认自身的不完美,允许将部分位置让渡给人工智能,尊重并理解机器,但绝不能放弃人的主体尊严,不能让人沦为机器的附庸。要明确技术的发展最终是为了人类,人工智能将是映射人类模样的一面明镜,人需要通过镜像来更好地认识自己和调整面向未来的姿态。
四、结语
一直以来,人们对于技术还停留在“技术服从于人”的认知上,而并不关心技术是如何运转的。这使得我们不得不对其存在加以防备,毕竟,技术背后是需要约束的人性。在这种境地下,“信任”和“尊重”也许是人类应该试着去学习的,当人们真诚地反思新型人—技关系,达成与自己在观念上的和解,那人类对于智能机器的“恐慌”就可能减轻许多。
参考文献
[1]余杰 .人工智能时代的意识形态风险及其化解 [J].思想理论教育,2022(12):84-89. DOI:10.16075/j.cnki.cn31-1220/g4.2022.12.011.
[2]胡泳,刘纯懿 .UGC未竟,AIGC已来:“内容”的重溯、重思与重构 [J].当代传播,2023(5):4-14.
[3]曾白凌 .大模型、大数据、新精英:数字技术对知识生产的征服与全球性重构 [J].现代出版,2023(6):30-40.