业务领域
Practices
行业领域
Industries
新闻中心
News Center
中伦资讯
Publications
社会责任
Social Responsibility
办公室
Offices
工作机会
Careers
处理活动及典型风险:
AIGC的技术本质是通过既有数据寻找规律,并通过适当的泛化能力生成内容。模型的成熟度及生成内容的质量都与训练数据高度相关,故此阶段涉及大量数据收集,并对此等数据进行清洗和标注(tokenization)后用于模型训练和验证。数据清洗、标注及模型训练存在内部性,需要重点关注AIGC模型(及所用于训练的数据)的可靠性与稳健性以及数据质量(真实性、准确性、客观性、多样性
[6]
),并根据《办法》第八条制定标注准则、开展数据标注质量评估、抽样核验等;而数据收集的风险则需关注数据源合法性,《办法》第七条即要求AIGC服务提供者“使用具有合法来源的数据和基础模型”,典型数据收集形式及合规风险包括:
个人信息跨境。
无论是境外AIGC开发者直接面向境内AIGC服务使用者提供服务,还是AIGC服务提供者接入境外AIGC技术API接口后向境内AIGC服务使用者提供服务,均可能涉及将AIGC服务使用者个人信息传输至境外。目前《个人信息保护法》《数据出境安全评估办法》《个人信息出境标准办法》均对个人信息出境提出合规要求,相关方应准确识别个人信息出境场景,选择出境合法机制(标准合同/安全评估/认证),开展个人信息保护影响评估(PIA),于隐私政策等文本中披露跨境情形,并具备相应合法性基础。《办法》第四章“监督检查和法律责任”第二十条特别提及来源于境外AIGC服务的场景,可以预见此等涉及跨境的AIGC服务将面临监管的重点关注。
个人信息保护。
模型训练阶段的个人信息合规问题集中在AIGC开发者面向个人直接收集数据,此种情形其他合法性基础的论证空间有限,告知同意可能是必选项。而对于应用运行乃至模型优化阶段,争议场景仍聚焦在MaaS模式,此模式下存在多种数据流交互的场景,不同处理目的及各类数据流下各方责任将有所差别。目前《个人信息保护法》根据三种数据处理关系进行了责任分配
[20]
,因此,服务提供者与AIGC开发者应当对于合作模式(核心为处理目的及数据流)进行清晰界定,例如,如果双方约定基于同一目的共同处理AIGC服务使用者输入的数据,且面向AIGC服务使用者提供服务时同时披露了两方主体,则构成共同处理关系,进而需依法承担连带责任。
AIGC监管责任认定。
模型训练阶段由于不涉及服务提供者参与,故该阶段监管责任将直接面向AIGC开发者。在考虑开发者与服务提供者的责任分配时,由于开发者控制训练数据和算法,具有履责的技术优势,而服务提供者会面对用户端,系《办法》所规定的直接监管抓手,但由于其不掌握AIGC底层技术,仅有能力对自身可接触的环节负责(例如对基于API接口的模型开展进一步优化训练),《办法》正式稿第七条亦将此前征求意见稿中“应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责”调整为“应当依法开展预训练、优化训练等训练数据处理活动”,体现出鼓励技术创新的监管态度。据此,无论是私有化部署还是MaaS模式,均建议开发者和集成方通过签订协议等形式,将此等监管义务在法律允许范围内进行明确分配,对各自合规情况进行审计和核查并留存证明材料,以尽到审慎义务。
[1]《生成式人工智能服务管理暂行办法》第二十二条第(一)项。
[2] See NIST AI 100-1 Artificial Intelligence Risk Management Framework (AI RMF 1.0). https://doi.org/10.6028/NIST.AI.100-1.
[3] 除本表所列主体外,实践中AIGC开发者/服务提供者还可能引入其他系统/产品供应商,以支撑其模型训练或业务运营的软件/硬件环境、技术支持等。
[4]《生成式人工智能服务管理暂行办法》第二十二条第(二)项所定义的“AIGC服务提供者”概念实际上已涵盖了“通过提供可编程接口等方式提供AIGC服务”的主体,为便于区分主体以厘清各方责任,本文针对此等“提供可编程接口的技术开发者”与“服务提供者”并非同一主体时,使用“AIGC开发者”的概念。
[5] 事实上,AIGC技术的模型训练、应用运行和模型优化等各个阶段涉及的数据合规风险要素包括:隐私性(个人信息、商业秘密)与合法性、可靠性与稳健性、透明性与可解释性、准确性与公平性、应用风险、信息内容监管、信息安全(完整性、机密性、可用性),本表仅列举各阶段所涉及的核心风险要素。
[6]《生成式人工智能服务管理暂行办法》第七条第(四)项。
[7] 司法实践中,诸如IP代理等行为均可能被认定为侵入性行为,典型案例包括:(2017)京0108刑初2384号、(2017)浙0110刑初664号、(2019)闽08刑终223号、(2016)浙0681刑初1102号、(2016)沪0115刑初2220号、(2016)浙0602刑初1145号。
[8]《反不正当竞争法》第十二条第二款规定,利用技术手段,通过影响用户选择或者其他方式,实施妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为,构成不正当竞争。
[9] 具体而言,技术措施包括两种:1)访问控制技术措施(又称防止未经许可获得作品的技术措施),该类技术措施是通过设置口令等手段限制他人阅读、欣赏文学艺术作品或者运行计算机软件;2)保护版权人专有权利的技术措施(又称保护版权专有权利的技术措施),即防止对作品进行非法复制、发行等的技术措施。
[10] 关于合理使用的讨论,请见此前文章全景透视生成式AI的法律挑战(一):知识产权挑战与路径。
[11]《个人信息保护法》第二十七条 个人信息处理者可以在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息;个人明确拒绝的除外。个人信息处理者处理已公开的个人信息,对个人权益有重大影响的,应当依照本法规定取得个人同意。
[12] 例如点评诉百度案、点评诉爱帮案,案件具体情况参见(2016)沪73民终242号民事判决书、(2010)海民初字第24463号民事判决书。
[13] 例如“淘宝诉美景案”,案件具体情况参见(2018)浙01民终7312号民事判决书。
[14] 部分域外案例中,Clearview AI 和OpenAI的数据来源以及模型的合法性均受到法律挑战。
[15]《个人信息保护法》第十三条规定了处理个人信息的合法性基础,包括取得个人同意、基于履行合同或人力资源管理所必需、基于履行法定义务所必需等。
[16] https://openai.com/policies/privacy-policy,最后访问日期:2023年5月30日。
[17] 详情见Open AI: How your data is used to improve model performance, https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance,最后访问日期:2023年5月31日。
[18] https://www.thepaper.cn/newsDetail_forward_22643886,最后访问日期:2023年5月31日。
[19] 例如,近期开源ChatGLM-6B可以在消费级的显卡上进行本地部署,https://github.com/THUDM/ChatGLM-6B,最后访问日期:2023年5月31日。
[20] 例如,在《个人信息保护法》项下,委托处理关系通常由委托方对外承担责任,共同处理关系则由双方承担连带责任,对外提供关系则各自承担责任。
[21] 具体见全国信息安全标准化技术委员会 大数据安全标准特别工作组:《人工智能安全标准化白皮书(2023版)》。