AB 即将上线 BitMart 交易所 全球交易渠道再
436 2025-02-21
作者:邓建鹏、赵治松;来源:新疆师范大学学报
本文2025年首发于《新疆师范大学学报》。
摘 要:随着生成式人工智能的快速发展,DeepSeek 的问世与开源备受关注。DeepSeek 凭借对算法模式、知识蒸馏以及思维链技术的破局,实现了低成本训练与高效输出。技术的变革对生成式人工智能的监管具有两面性:一方面,思维链和模型开源缓解了“算法黑箱”困境,为监管审查提供便利;另一方面,对隐私保护和数据合规、知识产权、“幻觉问题”以及模型安全性隐患等带来新挑战。DeepSeek 的爆火再度说明,生成式人工智能的监管应面向未来,将隐私保护与数据安全、技术创新与保护平衡、模型提示与反馈机制、模型安全性作为监管重点,避免技术滥用与恶意攻击,保障并促进生成式人工智能安全、良性发展。
关键词:DeepSeek;生成式人工智能;法律合规;监管;人工智能
作者简介:邓建鹏,中央财经大学法学院教授、博士生导师,金融科技法治研究中心主任;赵治松,中央财经大学法学院硕士研究生。
观点提要
DeepSeek 的技术特点与法制问题:知识蒸馏技术与合规问题;思维链模式与合规问题;开源模型的监管优势与新问题。
DeepSeek对当前监管困境的积极影响:一方面,模型开源、思维链等技术有助于纾解“算法黑箱”困境。另一方面,以 DeepSeek 为代表的大模型主动开源,在增强人们信任的同时,也为监管机构提供了更加便利、透明的审查条件。
DeepSeek 技术变革带来的新挑战:隐私保护和数据合规挑战加剧;知识产权方面的争议;“幻觉问题”加重;模型安全性问题。
生成式人工智能监管问题的困境之一是监管措施要不断适应技术的飞速发展。有学者认为,隐私保护、模型安全、技术标准、开源协议等更宜采用灵活多样、合作试验、跨国适用的行业标准等“软法”加以规制,监管机关宜与企业、行业组织或企业合作联盟等开展广泛合作,通过多种机制促进“软法”与“硬法”结合,规范生成式人工智能的发展。
自美国人工智能研发公司 OpenAI 推 出ChatGPT 以来,内容生成式人工智能实现了从单一模态的垂直部署到多模态的产业赋能,飞速发展的技术不断改变着世界。2024 年 12 月底,中国人工智能研发公司 DeepSeek 发布并开源了DeepSeek-V3 模型,其性能媲美当前顶级闭源模型;2025 年 1 月,该公司发布推理模型 DeepSeek-R1,在多项测试中达到或超越 OpenAI o。不同于其他模型依托海量数据和算力的发展思路,DeepSeek 凭借组相对策略优化(Group Relative Policy Optimization,GRPO)算法模式、知识蒸馏(KnowledgeDistillation)和思维链(Long-CoT)技术受到广泛关注。有学者认为,DeepSeek 以低至 1/10 的训练成本实现了与顶尖产品相媲美的性能,在推理效率、场景适配等多个维度树立了新标杆,实现了模型低成本的高效训练和输出,展示了卓越能力。
DeepSeek 以低成本实现高效训练,代表中国生成式人工智能技术的最新重大突破,将进一步促进大模型技术的广泛应用,但部分技术需要监管者思考。当前,有关生成式人工智能监管的学术研究主要集中在算法和数据合规两方面,多关注虚假信息规制、伦理风险规制、侵权责任及豁免,等等。算法合规聚焦算法审查、算法解释以及算法问责,数据合规聚焦数据来源合法性及数据隐私保护问题。DeepSeek 的技术应用在一定程度上有助于缓解当前人工智能监管的部分困境,例如,改善“算法黑箱”问题的可解释性和透明性,模型开源一定程度上便利了监管审查,等等。但部分技术手段也对监管提出新挑战,包括隐私保护和数据合规风险加剧、蒸馏技术导致知识产权争议、“幻觉问题”加重及模型安全性隐患,等等。有学者认为,我们已经到了一个历史转折点:当下历史的重大进程,有一部分是由非人类智能的决定推动的。正因如此,计算机网络的易错性才变得如此危险。当计算机成了历史推动者时,这些错误就可能带来灾难。因此,在关注 DeepSeek 技术特征的同时,应重点探索前沿技术发展的监管趋势。企业出于市场竞争和技术发展需求,通常会自发地优化算法解释与追求算法透明,以提升产品竞争力和用户信任。监管的重心应放在企业缺乏自驱力但又涉及公共利益与安全等方面,避免弱势群体权益受损,防止技术滥用和恶意攻击。
DeepSeek 采取诸如多头潜在注意力机制(Multi-Head Latent Attention Mechanism)等一系列技术革新,部分技术属于算法逻辑,并不影响监管规制,从监管角度关注 DeepSeek 的技术特点与其法制问题。
(一)知识蒸馏技术与合规问题
知识蒸馏技术是 DeepSeek 优化模型性能与提高资源利用效率的重要手段之一。其核心方法是通过训练较小模型(“学生模型”)模仿较大模型(“教师模型”)的输出或中间特征,以实现低成本的高效部署。即使用小模型模仿大模型的预测结果,这一预测结果并非简单的答案,而是预测概率分布(类似“软标签”),能够包含更多数据信息,故小模型在测试中表现更优。从技术层面看,虽然现阶段蒸馏技术体现了良好的技术效果,但直接用预测结果做蒸馏的方法,效果并非最优,不及用模型中间层特征做蒸馏的效果,且知识蒸馏损失公式存在一定缺陷,小模型将部分应分开分析的数据混合在一起进行分析,会影响知识传递的效果。
从监管角度看,现阶段蒸馏技术在法律方面的争议主要集中在数据合规和知识产权争议方面。如果“教师模型”采取瑕疵或不准确的数据训练,那么,在知识传递过程中,会将“教师模型”的数据问题转移并扩大到“学生模型”,进而可能扩大“幻觉问题”。蒸馏技术应用下的数据来源、处理方式、数据隐私保护等方面并没有较为明确的法律规范,且数据瑕疵在传递过程中的放大问题也缺乏明确法律界定责任归属。蒸馏技术虽然已经较为成熟,但对于模型使用和侵权的界限相对模糊。蒸馏技术不是单纯的代码复制,而是一种深层次利用,开源模型虽允许使用,但无论开源许可还是行业规范均未明确蒸馏技术应用时的具体限制,对于闭源模型缺乏详细规定,难以判断蒸馏行为在何种程度属于合理利用、在何种程度构成侵权,导致监管规范存在空白。
(二)思维链模式与合规问题
DeepSeek 技术的思维链模式是对指令提示模式的技术迭代,良好的效果可能逐步促进大模型从指令型向推理型发展。思维链技术指通过序列化的思维模式,提升大模型推理能力、思考过程的可解释性、模型可控性和输出的灵活性,适用于高度复杂任务。其与指令提示型大模型的区别在于,前者主要依赖预先设定的提示信息引导模型生成输出,但在应对复杂的任务需求时存在一定局限。思维链模式模拟人类的思维过程,构建逻辑连贯的思维链条,使模型能够逐步推理和分析,并展示思考过程,不仅有效提升了上下文理解能力,而且在处理长文本或多轮对话时能够有效捕捉前文信息,保持逻辑连贯性,进而生成更准确、合理的回答。
从监管角度看,由于指令提示型大模型的“算法黑箱”,模型仅输出最终结果,使其输出结果中存在数据、隐私泄漏风险。思维链在推理过程中展示中间步骤,步骤中可能包含训练数据中的隐私片段,侵犯个人隐私权或其他权益,触发合规挑战。此外,思维链可能会加重“幻觉问题”。指令提示型大模型只是单纯给出结果,使用者在某种程度上能够接受结果的不准确性。但思维链因具有“人类推理”特点,让使用者清楚看到思维过程,可能将错误的推理逻辑或无事实依据的内容层层传递,导致最终结果偏离事实。错误的推理步骤可能使模型得出错误结论,使用者因看到思维过程进而更信任这一错误结果,可能造成如误导决策进而引发经济损失、侵犯他人权益等后果。因此,要进一步明确大模型“幻觉问题”的应对措施,有效提示并纾解“幻觉问题”的影响。
(三)开源模型的监管优势与新问题
DeepSeek 作为开源模型,全面开放了代码、数据和算法。有学者认为,开源模型或许将引领大模型发展方向,带来新的商业机遇。从社会信任角度看,使用者和研发者可对开源模型进行技术分析,验证其效果和能力,最大限度提升开发模型的能力,使社会公众对模型的能力和技术效果有清晰认识;在技术创新方面,开源模型极大地激发了开发者的创造力,研发者和个人使用者均可围绕DeepSeek 开源模型不断进行二次开发,吸取或优化模型技术和改进方案;同时,开源特性能够提升技术的透明度和信任度,技术人员可深入剖析模型运行逻辑,进而发现其潜在漏洞并及时修复。相较ChatGPT 等闭源模型而言,监管机构能够实现对开源模型的穿透式监管,监督模型安全可靠运行。
从监管角度看,开源模型虽然促进了技术进步,但同时也带来监管方面的新问题。开源协议虽包含规范模型使用的规则等,但恶意使用者可能违反协议,将模型用于商业目的、竞争性开发或模型的再分发。在安全责任方面,即使模型开发者诸如DeepSeek 在用户协议中声明对其使用后果不承担责任,但单方面声明并不意味着其可免除所有法律责任(生成式人工智能的研发者和服务提供者负有维护其基本安全的职责),若因模型本身存在安全漏洞而被恶意利用并造成损害,开发者不能完全免责。
从技术发展角度看,DeepSeek 相关技术的应用在缓解监管困境的同时,也带来新挑战。
(一)对当前监管困境的积极影响
一方面,模型开源、思维链等技术有助于纾解“算法黑箱”困境。《互联网信息服务算法推荐管理规定》《生成式人工智能暂行服务办法》等规范对算法透明度和可解释性多采用倡导性规则而非强行性规则。“算法黑箱”问题是生成式人工智能监管的难点。“算法黑箱”实质是对生成式人工智能算法的披露和解释不足,在算法偏见冲击下,公众与生成式人工智能间必然会出现算法信任危机。但是,算法模型结构复杂,其决策过程难以被人类理解和解释,使用者、监管者甚至研发者都难以基于理性对算法进行分析和判断,因此,前期监管思路致力于提高算法透明度。有学者提出“归因解释”“反事实解释”等方法路径,有学者提出透明度报告、算法检测等监管措施以及可观察、可分解、可模拟的透明要求。但也有学者认为,算法透明并不具备显著效果,即使技术上可行,但未必实现带来预期效果。因此,技术限制、理论争议、倡导性规范等使监管机构在评估模型安全性、可靠性和公平性等方面长期面临重大困境。
DeepSeek 的发展表明,为增强模型理解能力、提升用户信任,企业具有一定自驱力完成相关算法解释和算法透明的技术要求,尽管可能出于商业目的,但也为缓解“算法黑箱”问题提供了实现路径,进而助力完善监管科技。DeepSeek 使用的思维链模式通过模拟人类推理过程,使模型决策过程更加透明。模型处理任务时依据思维链逐步推理,使每一步推理依据和逻辑关系都相对清晰,与此同时,思维链将模型推理过程中的中间步骤完全展示并记录,为使用者和监管机关提供更多可观察和分析的信息,有助于监管机构和使用者深入了解模型从输入数据到最终决策的过程,为评估模型决策的合理性和公正性提供依据。
另一方面,以 DeepSeek 为代表的大模型主动开源,在增强人们信任的同时,也为监管机构提供了更加便利、透明的审查条件。生成式人工智能开源与闭源模式竞争已久,诸如 OpenAI 等科技巨头凭借强大的研发实力与资源优势选择闭源,旨在保障企业技术秘密与商业利益。虽然部分模型选择开源,但其技术性能无法比肩 OpenAI 的闭源模型。DeepSeek 技术的新进展或许标志着开源模式成为生成式人工智能发展不可忽视的新趋势,且这一新形态在监管方面具有一定的积极影响。
在闭源模型环境下,监管机构对大模型的审查受信息不对称制约以及商业秘密限制,无法获取模型源代码和内部算法细节,监管机构只能通过对生成内容的外部观察测试评估模型性能与合规性,相关的模型测试表明闭源模型的问题溯源存在明显阻碍。相较闭源模型而言,开源模型具有开放性、场景适应性、专业用户友好性、高度透明性、兼容性等特点,极大地便利了技术创新和监管审查。模型开源包括模型架构、训练数据、模型参数等内容。在模型架构方面,可对算法进行全面测试,以评估算法的合理性、公平性和安全性;在训练数据方面,可直接检测数据的收集、清洗、标注和使用环节是否符合法律和技术标准,可以及时规避数据滥用或隐私侵犯风险;在模型参数方面,可直接审查开源代码,详细了解模型的数据处理流程、算法实现细节以及模型训练过程。同时,模型开源有利于监管机构持续监管,相较算法审查及备案而言,监管机构可及时获取模型最新动态,跟踪模型发展,确保模型在整个生命周期符合监管要求。更为重要的是,模型开源可促使使用者及同行参与算法监督,技术研发者或竞争对手在使用或监督开源模型的过程中,可能发现潜在问题并上报至监管机构,有助于监管机构及时发现和解决问题,促进开源模型合规,降低法律和技术风险。
(二)DeepSeek 技术变革带来的新挑战
1. 隐私保护和数据合规挑战加剧
生成式人工智能的数据合规主要包括数据来源、数据处理、数据存储和传输等环节。DeepSeek的思维链和知识蒸馏技术为模型性能提升带来突破,但也加剧了隐私保护和数据合规的挑战。
在数据来源方面,生成式人工智能问世之初,有研究人员指出,数据的质量和来源是影响生成式人工智能发展的重要因素,生成式人工智能可能面临训练语料用尽的情况。如前文所述,DeepSeek采取的蒸馏技术实质是“教师模型”到“学生模型”的知识传递,蒸馏过程减少数据采集与标注成本,在降低训练成本的同时大幅提高数据质量,但同时面临两个合规风险:一是若“教师模型”训练数据存在合法性问题,那么,“学生模型”也将受到间接影响,使隐私保护和数据来源合法性的审查难度增大;二是这种方式可能存在知识产权争议。
在数据处理方面,知识蒸馏可以高效地将知识从大型模型转移到小型模型,为了使“学生模型”更好地学习“教师模型”的知识,其可能对数据进行一些特征提取和转换操作,海量数据处理或将加重脱敏处理的数据重新可识别风险,进而增加用户隐私泄露风险。同时,思维链技术在推理过程中涉及对数据的深度挖掘和分析,这种推理过程不再处于“黑箱”之中,而是展示出来并保存在日志中,推理过程就是数据信息处理过程。例如,当要求 DeepSeek 评价某位公众人物时,其在思维链中会抓取各类网址,部分网址可能包含未经证实或已证实为虚假的信息。同样,当有使用者要求其屏蔽不良信息时,思维链仍会将不良信息的相关内容在思考过程中展示出来。由此可见,数据暴露程度的提升,将使数据合规风险增大。
在数据存储和传输环节,生成式人工智能依赖大量数据,其数据通常存储在多个不同地理位置的服务器上,如何确保这些数据的安全性和完整性是其面临的一大挑战。根据 DeepSeek 的隐私政策可知,个人数据信息存储在 DeepSeek 的中国境内服务器,但模型开源容易暴露数据。有使用者发现,DeepSeek 可公开访问的 ClickHouse 数据库,允许访客全面控制数据库操作,访问包括 100 多万行日志流在内的内部数据,其中,涉及聊天记录、密钥、后端详细信息及其他高度敏感信息。虽然DeepSeek 立即对其进行修复,但其风险仍需关注。在数据共享和跨境流动问题方面,生成式人工智能更需要国际视野,但不同国家和地区的数据保护法规存在差异。近年来,个人信息的法律保护逐渐受到各国高度重视,例如,欧盟对个人信息等数据要求相对严格,《通用数据保护条例》(GDPR)对数据访问、存储、修改、删除及数据跨境传输设置了严格条件。虽然世界各国在数据跨境“自由流动”和“数据跨境管制”间存在分歧,但数据安全是数据跨境的重要限制性原则。因此,我国生成式人工智能机构可通过进一步提高数据合规标准,进而提升在全球范围内的竞争力。
2. 知识产权方面的争议
知识蒸馏技术在实现低成本高效训练的同时,或将引发一系列知识产权争议。知识蒸馏的本质是利用“教师模型”的训练效果。有观点认为,将蒸馏技术用于构建直接竞争的大模型产品,属于违反其服务条款的行为;也有观点认为,利用先进大模型的输出进行二次开发属于行业惯例,并不存在争议。
在模型蒸馏过程中,其实质是利用“教师模型”的训练成果对“学生模型”进行知识输入和高效利用。从技术角度分析,模型蒸馏过程中知识的利用与侵权的界限难以明确划分,“学生模型”学习“教师模型”的知识,必然会在一定程度上与“教师模型”存在相似之处,但这种相似达到何种程度属于越过合理利用的范畴,进而构成侵权,需要在技术层面进行更加清晰的检测并设置标准。同时,不同模型架构和算法在蒸馏过程中展示的效果各不相同,进一步增加了技术标准的复杂性。虽然各大生成式人工智能或出于商业目的或出于技术创新目的,采取开源或 API 调用(应用程序接口)模式开放共享平台,但无论开源还是 API 调用模式,其允许用户使用、复制、修改都应受到一定限制,或制定协议许可,或出台相关规定与规范。若生成式人工智能系统在蒸馏过程中未经授权使用其他公司的模型作为“教师模型”,或在知识利用与学习过程中过度依赖“教师模型”的独特技术而缺乏独创性,可能造成知识产权侵权。
从法律层面看,现有知识产权法律体系在应对模型蒸馏引发的争议时存在一定滞后性。传统知识产权法律主要对具体内容较为明确的创新成果进行保护,对生成式人工智能模型这种不透明、高度复杂、飞速动态发展的技术成果,法律对其的界定和保护范围并不清晰。行业内相关争议缺乏明确规范标准,现有的协议多采取回避态度。例如,GPL(软件开源通用公共许可证)规定:“若软件分发者对他人发起专利侵权诉讼,指控对方使用该软件侵犯其专利,GPLv3 会自动终止对该诉讼方授予的所有专利许可。”知识产权的核心是在技术保护和激励技术创新间寻找平衡点,蒸馏技术不仅影响原初大模型的社会信任与市场竞争力,而且对人工智能技术的创新和发展产生影响,但过于严苛的技术保护可能会使垄断企业利用知识产权争议作为维持其垄断地位的手段。
3.“幻觉问题”加重
大模型的“幻觉问题”是所有模型的固有弊端,“幻觉问题”指模型生成的内容看似准确,但实际上是其编造的或者缺乏数据支撑,模型的“幻觉问题”严重影响模型输出内容的可靠性,进而影响社会信任。随着 DeepSeek 模型蒸馏技术及思维链技术的应用,虽然逻辑推理能力得到提升,但“幻觉问题”逐渐凸显并加重。例如,在实际使用过程中,有使用者发现 DeepSeek 大模型在思维链推导过程和最后结果中输出虚假和编造的文件、页码、专业名词等,且模型表达内容、逻辑推演实施以及细节过于完善,普通使用者的知识储备难以纠错,即使使用者指出具体错误,模型仍会对相关内容进行再“编造”。
在模型训练阶段,“幻觉问题”主要受训练数据质量的影响。例如,训练数据中包含大量不准确、不完整的信息,模型在学习过程中容易吸收这些错误信息,进而在生成内容时输出错误内容。如前文所述,蒸馏技术的知识迁移在提高数据质量的同时会放大数据存在的问题,利用蒸馏技术训练的数据可能是存在瑕疵或错误的数据,经反复利用导致最终输出的极端化──优质数据带来准确、严密的内容,瑕疵数据会放大“幻觉问题”。同时,思维链技术提升模型推理能力的负面影响是导致普通使用者更加“相信”其输出的内容。思维链是基于模型的严密推理,在推理过程中逐步处理可能存在偏差或不完整的数据,推理步骤越复杂,引入错误信息的概率越大。模型在处理部分专业领域的问题时,可能因缺乏足够准确的数据或抓取信息不准确生成错误结论。
DeepSeek“幻觉问题”的加重提示我们,生成式人工智能拥有一定的自驱力,能够提升算法的解释性和透明性,但其“幻觉问题”可能随着模型能力的增强而同步放大。虽然有学者提出,可通过建立精准的“外接”私有数据库 RAG(RetrievalAugmented Generation,检索增强生成)提高人工智能的精准度,但这种方式会带来极大的数据负荷,其更适合模型的个性化设计而非基础模型。因此,亟须探索合理的监管措施,促使生成式人工智能积极应对“幻觉问题”,避免使用者因过度信任其输出的内容而造成难以预测的损失。
4. 模型安全性问题
DeepSeek 模型发布后,曾遭大量境外网络攻击,直接影响系统的注册、访问和正常使用。此次攻击是生成式人工智能模型问世以来罕见的大规模跨境攻击,此次攻击事件暴露出一系列典型的网络安全问题,包括攻击手段复杂化、跨境攻击、网络安全防护技术漏洞、应急响应能力不足、数据安全风险以及供应链安全风险,等等。上述问题不仅影响 DeepSeek 的正常运营,而且提示我们要更加重视大模型的安全问题。
生成式人工智能大模型在安全层面具有天然脆弱性,部分研究者将其可能遭受的攻击归结为模型窃取、数据重构、成员推断、数据投毒、提示词注入、间接提示词注入、模型劫持、海绵样本,等等。模型的架构和算法设计存在固有内在缺陷。模型处理输入数据时,对数据的微小变化较为敏感,攻击者能采取各种手段突破模型的防御,当前的应对方式主要是增强模型的鲁棒性(模型或算法在面对各种不确定性、干扰、异常情况或不利因素时,依然能够保持稳定运行和良好性能的能力)。随着大模型从基础的垂直部署模式到与医疗、金融、法律等高度专业领域结合的“AI+”模式,其在上述关键领域安全性问题的影响范围和严重程度不断增加。在商业应用中,技术创新虽然带来高效和便捷,但确保新技术的安全性始终是各商业机构的首要任务,如果将新技术应用到现存商业模式中,需要全面评估其安全性和数据隐私保护措施。
生成式人工智能监管问题的困境之一是监管措施要不断适应技术的飞速发展。有学者认为,隐私保护、模型安全、技术标准、开源协议等更宜采用灵活多样、合作试验、跨国适用的行业标准等“软法”加以规制,监管机关宜与企业、行业组织或企业合作联盟等开展广泛合作,通过多种机制促进“软法”与“硬法”结合,规范生成式人工智能的发展。
(一)加强隐私保护与数据安全监管
明确个人数据的使用范围和受侵害时的救济方式,平衡个人数据保护和数字经济发展的关系是适应当今社会数字经济发展的重心,也应成为生成式人工智能监管的重点方向之一。
在数据收集阶段,生成式人工智能的监管应确定相对明确的规范,要求明确数据收集的范围和目的,确保数据收集的必要性和合法性。收集用户数据时,应遵循最小化原则。大量数据泄露的事件表明,生成式人工智能应完善用户同意机制,确保用户对数据收集行为有清晰认知。DeepSeek 的隐私政策明确“在经安全加密技术处理、严格去标识化且无法重新识别特定个人的前提下,会将服务所收集的输入内容及对应输出的内容,用于 DeepSeek服务质量的提升和优化”。此类隐私条款广泛应用于目前的大模型服务协议中,似乎已成为“以服务换取数据”的商业模式。生成式人工智能的监管并非绝对禁止这一商业模式,但应将选择权交于使用者手中。
在数据处理阶段,应对数据分类分级,并根据数据敏感程度等因素分类分级管理,采用差分隐私的方法,对不同级别的数据采取不同保护措施和使用限制。鉴于数据蒸馏带来的合成数据利用,应进一步创建机器学习场景下数据处理的新权利和新规则,规定合成数据使用制度。随着合成数据和大量数据的处理分析,去隐私化的数据在模型处理中重新可识别的风险不断加剧。研发者在利用海量数据的同时,要以数据分类分级保护制度为依据,对数据全周期各环节的相关行为使用的技术进行规范。通过设置隐私数据的敏感词,利用算法、数据分析等手段动态监测、反馈模型运行处理过程,以算法应对算法带来的问题,及时识别并有效处理模型运行中出现的隐私、敏感数据。
在数据存储和传输阶段,应推动研发者采用加密和安全的存储架构。可通过数据分级等制度,对敏感数据进行加密存储,防止数据在存储过程中被窃取或篡改;也可采用安全传输协议,确保数据传输的保密性和完整性。在数据跨境流动方面,各国技术发展的差异使其法律和立场不同,生成式人工智能要具有全球竞争力,研发者和服务提供者就需要提供能够符合不同国家要求的大模型。因此,我国需进一步规范数据跨境传输、处理,凝练并提出符合自身主权、安全、发展利益的数据战略,对数据接收方和处理者进行数据安全评估,提升数据安全保护能力,保障我国数据安全。
(二)技术创新与技术保护的平衡
知识蒸馏技术和模型开源会引发知识产权争议,二者在技术上密不可分,知识蒸馏的对象通常会变为开源模型。在互联网时代,有学者提出知识产权弱化和利益共享观点,但知识产权过度弱化显然无益于保护权利持有者持续技术创新的动力。针对所引发的知识产权争议,需要规范蒸馏技术和开源行为,对此种争议风险作出合理回应,进而化解技术创新和技术保护间的冲突。
第一,要准确界定行为性质,区分具体行为属于“技术改进”还是“侵权复制”。若“学生模型”仅通过“教师模型”的输出结果(诸如预测数据)进行训练,需审查其是否超出原模型的允许使用范围和保护范围;若“学生模型”仅学习“教师模型”的通用知识和公开技术,且对关键创新点进行自主改进和创新,就不构成侵权,反之则构成侵权。对开源模型而言,开源并不是对权利的放弃,应是许可证保障下的新型著作权许可模式,其行为性质应受到许可证约束,其实质是开源者对权利处置及对开源社区规范的遵守。
第二,应建立针对大模型的特别审查机制。监管机关可要求公开蒸馏模型关键技术流程,例如,数据来源、对齐方法,等等。同时,举证责任可向技术优势方倾斜,可要求被控侵权方证明其模型的独立性。对开源模型而言,其应以敏捷治理替代“命令—控制型”监管,利用制度机制和资源配置等方式在激励创新的同时,对模型利用进行规范,避免滥用和恶意使用。
第三,监管机构应与开源社区建立合作机制。无论模型的蒸馏利用还是开源,都或多或少依赖开源社区的开源许可。开源许可属于合同,但又依赖传统的知识产权制度。监管机关可引导社区通过技术标准、科技伦理、行业标准等,建立符合当前技术趋势的知识产权协议并动态更新,通过合作、包容、灵活的自律规范和自治性规范等“软法”规范开源和蒸馏等行为,为开放知识产权提供渠道,为新技术的开发利用设置底线。
(三)健全模型的提示与反馈机制
虽然研究人员尝试使用各种方式缓解大模型“幻觉问题”,但 DeepSeek 的测试表明,似乎大模型能力越强,模型的“幻觉问题”越令人信以为真。DeepSeek 在用户协议中明确“本服务提供的所有输出均由人工智能模型答复,可能出现错误或遗漏,仅供您参考,您不应将输出的内容作为专业建议”。但这种隐蔽的格式化服务条款内容不应完全成为其单方面的免责依据。在技术发展的同时,服务提供者应健全模型的安全提示与反馈机制,在提示使用者风险的同时规范机构自身行为,为责任归结提供依据。
从监管角度看,在鼓励完善技术的同时,应要求生成式人工智能服务提供者采取充分提示与反馈机制规避风险。当前,生成式人工智能服务提供者的注意义务虽然不包含对生成内容负有一般性审查义务,但应包含对涉嫌侵权的内容采取显著标识的义务。这种标识不应仅出现在服务协议等格式化条款内,而应对涉及金融、医疗、法律等专业领域的回答给予显著提示。在模型反馈方面,监管机构应要求服务提供者建立完善用户反馈渠道,及时收集用户在使用模型过程中发现的问题和异常。目前,依据 DeepSeek 用户协议,用户发现侵权、违法、虚假信息的反馈渠道为邮箱反馈,此举无法在用户使用自然语言处理模型过程中发现模型推理、生成的幻觉或错误信息时进行针对性反馈。反馈渠道应便利、高效、有针对性。应鼓励行业制定标准化流程,提供多种反馈渠道,方便用户提交反馈信息。同时,可建立模型性能监测系统,公布“幻觉问题”的反馈率、响应率、处理率等,驱动研发者提升技术。
在“幻觉问题”处理方面,监管机关应加强法律的预防功能,而非制裁功能。当前,不宜要求生成式人工智能服务提供者对生成内容的真实性和准确性承担全部责任,但生成式人工智能服务提供者应承担运营主体责任,履行内容管控、溯源标记等明确义务,应采取有效应对措施,确保能够溯源问题并及时改善。例如,对输入模型的指令提示、模型输出内容及决策过程中的关键步骤予以记录,并通过日志等存储方式,确保数据完整性和可追溯性。当模型出现问题时,生成式人工智能服务提供者应确保能够通过溯源体系快速定位问题所在,采取针对性改进措施,提高模型可靠性。
(四)模型安全性监管
DeepSeek 的服务器数据泄露和遭受大规模攻击表明,模型安全性能不仅是企业的问题,而且关系使用者个人隐私、社会利益以及国家安全,因此,模型安全性、保护数据安全及抗攻击等性能应成为未来生成式人工智能监管的重点方向之一。
一方面,应制定模型安全标准。生成式人工智能治理标准可发挥“承接立法和监管、对接技术实践”的重要作用,应鼓励行业制定适用于生成式人工智能的安全技术标准,包括数据去隐私化、算法对抗、数据库访问、安全漏洞检测与修复等,全面评估模型的安全性,并向监管机关提供检测报告。研发者可以参考 OpenAI 的红色对抗团队,自行开展功能测试、性能测试、安全漏洞测试等多方面的对抗性测试,并鼓励向社会公开。但是,这种标准和要求应为“软标准”而非硬性要求。在技术飞速发展时期,不应制定过于严苛的安全标准给企业增加过高合规成本,而应以科技伦理为基本原则、风险管理为基本制度。可通过安全认证机制,对符合安全标准的模型予以医疗、金融等领域应用的行政许可,既可以提高模型安全性和可靠性,也有助于拓展模型的应用领域。
另一方面,应将模型安全性能的检测、预警和风险预案作为监管重点,要求研发者利用数据监测等技术手段实时监测模型存储、运行的数据安全状况。可建立数据泄露预警机制,发现异常攻击、数据泄露或安全威胁时能够及时响应并上报,提高对数据安全风险的检测和应对能力。同时,监管机关应定期检查与测试,对安全性能等专业技术问题引入第三方评估机构,对存在严重安全隐患的模型采取风险提示或限期整改等行政手段,必要时向社会公布检测结果。
DeepSeek 的技术应用在生成式人工智能研发领域引发广泛关注与学习。DeepSeek 发布后,有团队发布了技术指标可媲美 DeepSeek R1,但训练成本不足 50 美金的新模型。技术发展带来行业快速发展的同时,也给生成式人工智能监管带来新挑战。DeepSeek 的蒸馏技术、思维链模式及开源策略在提升模型性能、拓展应用场景和促进技术创新等方面发挥了重要作用。虽然 DeepSeek 的技术应用在一定程度上缓解了“算法黑箱”和监管审查的困境,但也为隐私保护和数据合规、知识产权、“幻觉问题”和模型安全性等方面带来新挑战。
未来,人工智能技术将持续发展,在引发科技革命的同时也带来风险挑战,监管的重要性愈发凸显。因此,要着眼未来,预测生成式人工智能的发展趋势,进一步规范数据收集、数据处理、数据存储和传输等,有效保护个人隐私、加强数据合规体系建设;针对蒸馏、开源等技术,既要鼓励行业标准和技术标准等“软法”的应用,准确界定行为性质,平衡技术创新与技术保护,也要建立有效的模型提示、标识、反馈与溯源机制,弱化大模型的“幻觉风险”。未来,伴随技术的发展成熟,可制定更为严格的模型安全标准,在充分发挥人工智能技术优势的同时,防范技术风险、保障公众利益和社会安全。面向未来技术的监管研究还应着眼国际视野,加强全球人工智能监管的协调与合作,在当代国际秩序中推动生成式人工智能监管的中国方案,应对人工智能发展的全球性挑战。
文献来源 |《新疆师范大学学报(哲学社会科学版)》网络首发