从AIGC第一案看医疗商用AI中的法律问题
医疗人工智能,己广泛应用于临床决策支持、药物发现、健康管理、影像分析和健康生态系统等领域。
1、基于人工智能技术的临床决策支持系统,可提供个性化的治疗建议,在中医开方中往往用名医医案与验方投入训练,使用AI技术辅助医生诊断。
2、基于深度学习技术的医学影像分析平台,通过人工标记病灶后由机器学习,进而将机器标注结果辅助医生诊断。
3、大数据分析:采用云计算技术,归集政府、医疗机构、患者个人信息,形成健康管理平台,可为医生、患者和医疗保健机构提供数据存储、分析和共享服务。数据除可以用于个人健康监测外,还可以用于医疗保健数据共享、疾病预测和流行病学研究等活动。
互联网医院管理办法明文规定不得使用AI冒充医生,医生要知道机器学习是以概率论为基础的,与人脑的抽象逻辑思维、理论指导实践的思路是有区别的,仅仅是一个参考。
其中,用于个人健康监测、医疗机构辅助诊断的商用AI软件,在产业链上,分为底层平台、模型训练、下游推广三个环节。医院将病历资料交给第三方公司进行训练,要注意保护患者的隐私信息,有电子病历的,应该在数据脱敏后再进行商业合作。
我国数据保护已经形成数据资源持有权、数据加工使用权、数据产品运营权三权分置的法律形态。医院是数据资源的持有者,对第三方公司的数据加工使用行为,医院负有数据脱敏的义务,否则构成数据侵权。
数据加工与产品分销方面,商用软件是容易引发侵权纠纷的,由离职员工带走商业秘密引发的占多数。由于AI最擅长“改头换面”,不离职员工是不是使用了公司的数据或者系统,如何证明呢?
虽然AI被“投喂”了哪些数据是不可知的,但却是可以证明的。中国和美国分别出了两个有影响力的案子或者“第一案”。
2023年9月19日,美国作家协会以及包括《权力的游戏》原著作者乔治·R·R·马丁在内的17位美国著名作家在纽约南区联邦地方法院起诉OpenAI侵害其著作权,是这样证明的:“原告引证了ChatGPT可以生成版权书籍的原文片段。虽然目前ChatGPT已被改进,无法直接生成原文片段,但ChatGPT仍可生成版权书籍的梗概。原告声称该类梗概中包括了在文学评论及公开资料中无法了解的细节,因此这仍可证明OpenAI将整本版权作品用于训练模型。”
简单说,这能够证明OpenAI用盗版投喂了AI。
DeepMind的研究人员联合华盛顿大学、康奈尔大学等高校,也发表了一篇论文指出ChatGPT的数据泄露漏洞:当ChatGPT被要求重复一个单词多次时,模型会“发疯”,开始把训练数据原封不动地“吐”出来。内容五花八门,除了个人信息,还包括文学作品、学术论文、链接、代码……甚至不可描述之内容。
至少到目前,这种AI的消化不良行为还存在,可以作为证明AI被投喂了什么资料的明显证据。
中国的“AIGC第一案”,2月26日,广州互联网法院一起生成式AI服务侵犯他人著作权判决生效,被认为是全球范围内首例生成式AI服务侵犯他人著作权的生效判决。该案认为,某人工智能公司在提供生成式人工智能服务过程中侵犯了奥特曼作品所享有的复制权和改编权。简单说,就是用户到这家网站上,要求生成各种组合或者风格的“奥特曼”,都能够被满足。这种情况下,如果说上游模型训练厂商没有投喂过“奥特曼”版权作品就能生成,是怎么也说不过去的。不过在这起案件中,被告只是下游推广方,因此法院判决其作为平台有无按“平台避风港原则”设置投诉通道,用户协议中有无不得侵权的约定,生成图片有无标注AIGC生成,是其是否承担法律责任的关键。
如果像OpenAI一样的上游开发商成了被告,法院会对“投喂数据”要不要向版权方单独签定协议并支付费用作出判决。
在医疗领域,可用于生成式人工智能的系统或者数据遭遇泄密,也可以采取这一证明方式。 如果是软件著作权侵权,还可以结合软件版本对比与“输入-输出”一致性进行比对。
不感兴趣
看过了
取消
不感兴趣
看过了
取消
精彩评论
相关阅读