刘建利:医疗人工智能临床应用的法律挑战及应


时间: 2019-09-17

  随着人工智能技术的不断发展与进步,医疗AI的临床应用逐渐普及,在疾病诊断、治疗、护理、健康管理等方面大显身手,对于提高医疗效率、改善医疗资源配置、降低医疗成本等发挥着重要作用。但是,AI背后的“技术黑箱”和“自主学习”使得医疗AI的临床应用蕴藏着巨大的风险,给现行法律规制提出了众多挑战,尤其是医疗损害发生后的法律责任承担以及医疗数据的保护和利用等问题亟需探讨解决。我国应当在明确医疗AI法律地位的基础上,通过加强解释和完善立法,建立医疗AI的技术准入标准,完善医疗损害的法律归责制度,平衡好患者、医务人员、医疗机构、医疗AI设计者和生产者的利益与责任。在数据保护上,出台专门的医疗信息保护法,在保护好患者隐私的基础上,充分发挥医疗大数据的价值,造福国民健康。

  随着《“互联网+”人工智能三年行动实施方案》《新一代人工智能产业发展规划》和《促进新一代人工智能产业发展三年行动计划(2018-2020年)》等文件的相继出台,人工智能发展迎来重大机遇。人工智能在疾病诊断、治疗、护理、健康管理等医疗领域大显身手,对于提高诊断效率和治疗效果、改善医疗资源配置、降低医疗成本等发挥着重要作用。然而,人工智能背后的“技术黑箱”和“自主学习”使得医疗人工智能(下为:医疗AI)在临床应用上蕴藏着巨大风险。医疗AI诊断失误以及手术损害等不良事件的发生引发理论界和实务界对医疗AI的法律地位、医疗损害的责任承担等法律问题展开激烈热议。此外,医疗AI的“自主学习”离不开巨量医疗大数据的喂投,涉及医疗数据的保护和利用,但我国目前对医疗大数据的保护和利用等还未有明确的法律规范。基于此,笔者在归纳和提炼医疗AI在临床应用中所引发的法律问题基础上,重点分析医疗AI的法律地位,探讨其引发医疗损害时的法律责任,明确医疗AI背景下的医疗信息的保护和利用的边界,为我国医疗AI的发展与完善提供建议。

  目前,医疗AI在医学诊疗、治疗、护理以及健康管理等环节均已实现临床应用。利用AI影像辅助诊断,可以帮助医生提高癌症或心脏疾病的诊断准确率。日本的CAD(电脑辅助诊断)系统,通过胸部CT照片分析,能以较高的准确率检查出肺结核等疾病。在日本2016年举办的一次转移性乳腺癌诊断比赛中发现,病理医生的误诊率为3.5%,但医生借助此系统可以将误诊率降低至0.5%。AI影像诊断的升级就是辅助诊断。医疗AI通过学习海量的医学数据和专业知识,模拟医生的诊断方式,可在短时间内提供出高效、精准的诊断结果和个性化的治疗方案。此领域最为出名的IBM的Watson for Oncology(沃森肿瘤学)系统。Watson通过对大量的癌症临床知识、基因组数据、癌症病例信息的“学习”后,可以为临床医师提供治疗方案,是AI辅助诊断的典范。只要输入患者的电子病历等信息,Watson能够快速挖掘医学知识和患者的个人记录,在不到三秒钟的时间内完成诊断,并根据病人的病历提出有针对性的个性化治疗。现在Watson已经可以查出至少13种器官中的肿瘤。在日本,Watson曾经只用10分钟就将病人的基因变化信息与2000万篇癌症科研论文的数据进行了比较,准确鉴定了罕见白血病类型,成功挽救了一位60岁妇女的生命。

  医疗AI不仅可以进行诊断,还可参与手术等外科治疗。当下,外科医生可以远离手术台操纵AI对心脏和前列腺实施外科手术。手术AI的杰出代表是“达芬奇手术AI”。“达芬奇”是目前世界上最先进的手术AI(内窥镜手术器械控制系统),可以在医生的操作下,利用手术器械模拟医生的手术过程,完成精细化的手术操作。“达芬奇”具有辅助成像系统,能将手术的视觉放大10至15倍,使手术画面更清晰,操作精度更高。此外,“达芬奇”的手臂能进行大角度自由旋转,达到医生手术刀达不到的位置,而且操作稳当,不会出现人工操作的颤抖等情况。达芬奇机器人曾经在一个玻璃瓶里给葡萄缝合葡萄皮,这是人手难以达到的境界。总之,“达芬奇”为外科医生的手术精度提高了一个数量级,能减小伤口创伤面,减轻病人痛苦,加快术后恢复。数据显示,“达芬奇”仅在2016年即完成11445例手术,截至2017年3月,国内“达芬奇”已装62台,且全球机器人手术量以年均15%的速度增长。

  随着全球老龄化加速和慢性病患者的激增,AI护理存在巨大的市场需求。国外在临床上已经出现护理机器人。护理机器人是将传统的护理工作与先进的机器人技术相结合的体现,目前已有康复机器人和生活护理机器人。康复机器人有外骨骼机器人和儿童上肢康复机器人。康复机器人能有效提高需要康复训练患者的训练强度和效率,帮助残障人(包括老年人、残疾人、伤病人)提高生存质量和社会生活参与能力。日本研究机构Riken开发的机器人Robear,能将病人从床上抬起,帮助行动不便的病人行走、站立等,能为老年及瘫痪患者提供喂饭等服务。还可以通过超声波,实时掌握老年人及瘫痪患者膀胱内的尿量变化,有效预测被护理者的排泄时间,即可保护这类人员的尊严,也可减轻看护者的负担。澳大利亚养老院用机器人做护工,通过给机器人输入程序,可以使其与老年人一对一交流,消减老年人的苦闷。

  医疗AI通过动态,可对个人健康进行精准把握,结合健康大数据给予用户精准指导,能有效降低疾病发病率和患病率。具体而言,AI通过可穿戴设备监测患者的活动水平、药房数据、服药依从性、呼吸和脉搏率状况、甚至是所处环境的污染程度等动态信息。结合使用者的年龄、病史、健康状况、临检报告、医学影像资料以及DNA基因编码等医疗信息,通过计算机的超算和学习模型来筛选和解析患者数字化信息,从而为用户提供健康预警,并在饮食、起居等各方面提供健康建议,帮助用户规避患病风险。此外,通过区域健康管理可作,AI通过大量实时搜索分析某一区域内人群的健康数据,对比历史数据,深度分析,可跟踪、预判传染病病在该区域中爆发及流行趋势,为卫生行政主管部门提供应对决策预警。在临床运用上,Welltok公司与IBM沃森合作,已通过“CaféWell健康优化平台”推出帮助用户管理压力、调节情绪、控制营养以及糖尿病护理,并且会在用户保持健康生活习惯时给予奖励。同时,为用户提供灵活、全方位的健康促进方案,包括阶段性临床护理、长期保持最佳健康状态等多个方面的服务。

  医疗AI在诊断、治疗、看护以及健康管理领域的应用呈逐渐扩大和深入之趋势,考虑其进步潜力及医学应用前景,法律应鼓励这种创新技术的发展。随着医疗人工智在临床上的不断应用,法律责任问题必然产生。首先,医疗AI诊断必须达到一定的标准,才能进入临床应用环节。问题是,医疗AI在诊断、治疗、护理环节中运用时,行为主体是医疗器械还是医生,这两者的准入标准并不相同,究竟达到何种标准才能进入临床使用?其次,大数据与AI技术本身带有不确定性,技术自身的发展以及技术应用的结果都可能产生无法控制或预测的风险。医疗AI误诊或误操作等现象难以避免,当对病人造成损害的,显然需要追究法律责任。但是,追责对象究竟是AI本身,还是医务人员和医疗机构,还是医疗AI的生产者(包括软件或硬件)?换言之,医疗AI在法律上是人还是物?这是探究医疗服务AI法律责任最基本也是最重要的问题。只有在法律上界定了AI诊断的法律身份,其他的相关问题才能迎刃而解。

  实践证明,医疗AI误诊或误操作等现象难以避免。由于Watson背后的“技术黑箱”和“自主学习”,它无法解释它的决策理由,即为什么会为特定的患者推荐特定的治疗方案,有时甚至是专科医生们也会疑惑Watson为何会提出他们不会提出的治疗方案。此时,医生对于究竟是否需要采纳Watson的方案将陷入两难的境地,如果因采纳Watson的方案而导致误诊的,或者明明可以使患者获得救助,却因未采纳Watson的方案而导致患者误诊受到损害的,是否需要承担法律责任?再如,“达芬奇”这样的手术AI虽然出色,但也仍然存在安全风险。在英国2015年首例“达芬奇”心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。由于手术AI没有触觉反馈,医生无法感知到在手术过程中的病人的身体反馈情况,难以根据临床现状及时调整手术方案,一旦碰上手术AI出现硬件故障或程序漏洞,很容易造成医疗事故。医疗AI在护理和健康管理中同样存在因AI硬件故障或程序漏洞而导致患者遭受医疗损害的问题。那么,这类手术AI的安全标准是什么,一旦发生医疗事故责任主体是谁,此类问题亟须法学界给出答案。

  发展医疗AI,特别是发展医疗AI健康管理,需要利用大量医学数据。医疗AI的服务质量取决于喂投给它的医疗数据的量,两者呈成正比关系。为了更好地提供精准化、个性化的健康管理服务,往往需要采集使用者全时段,全方位,长周期,海量的生理和生活数据,其中绝大部分属于隐私数据,对这些数据进行简单地大数据分析就可得知使用者的敏感信息,一旦被有意或无意地泄露,会给使用者造成重益侵害。而且,医疗AI不同于医生,系统收集到的患者信息保存于云端或存储器,就算人工删除也能被轻易恢复。而且,AI的“保密性”不像人那样存在情感,任何人均可从中调取信息,加密措施也无法完全阻止黑客的信息调取。完全摒弃保护隐私,全部数据均用于发展AI,或者追求隐私的绝对保护,全面禁止AI使用医疗大数据,显然均不可取。需要在这两者之间寻找到平衡点。此外,通过对大量医疗数据的加工可以形成新的有用数据,此时不仅需要保护被搜集人的个人信息权,还要保护数据开发者、合法利用者的数据权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决。这为法律对医疗数据的保护和利用提出了较高的要求。

  我国尚无法律法规用于界定AI的法律地位。但是,从外观而言,医疗是AI具有特定物理形态的医疗工具,与其他手术器械相比,并无颠覆性的改变。从内在而言,医疗AI是一套能够按照内设程序进行操作的系统,该系统由人类设计,并受人类控制,并未做到完全独立自主地从事医疗行为。而且,医疗AI无法像人类医生那样和病人进行情感交流,或许永远无法超越专业人员对疾病和病人人生观和价值观的理解。从AI的发展阶段来看,当前医疗AI还缺乏自我意识,不会像人类一样思考,仍然处于弱AI阶段。当下,最终做诊断结论和手术操作(或下达动作指令)的仍然是医生。因此,此阶段的医疗AI不应具有法理主体地位,仍然属于医疗器械。其不仅不具备产生民事法律关系的主体资格,更不能成为承担刑事责任的主体,难以独立承担法律责任。

  当然,随着AI技术不断发展与进步,真正到达强AI阶段,人机界限模糊且人机共存状态成为新的社会特征,出现具有法律人格或类法律人格的智能机器人,以人际社会关系作为调整对象的法律制度将出现颠覆性的变革。在将来医疗AI确实达到能够独立诊断或独立手术的地步,通过立法赋予其一定的法律主体地位也未尝不可。其实,早在2016年,欧盟委员会的法律事务委员就建议将最先进的AI人的身份定位为“电子人”。如果医疗AI要作为独立主体进行诊断或治疗等活动,为了保证医疗水准以及医疗安全,就应当向人类医生一样,让其必须要获得相关的行医的资格。到那个阶段,法律就不能将其简单地定义为人或者物,而应是一定条件下的物或一定条件下的人,即应当以医疗AI的具体应用场景对其作出人或者物的定性。医疗AI不仅要满足作为医疗设备的各项指标,更要达到作为主体“医生”的各项要求,在出现医疗损害时甚至成为承担法律责任的主体。

  “没有责任就没有刑罚”是现代刑法的一个基本原理。责任的本质特征是非难可能性,只有在具有非难可能性的情况下,行为人才能对不法行为承担责任。由于我国目前尚未出台专门针对医疗AI的法律法规,有必要在既有的法律框架内探讨医疗AI在诊断和治疗过程中引发医疗事故时的法律责任。如上述,医疗AI目前仍是辅助医疗工具,还不具有法律上的主体地位,因此,当下医疗AI造成医疗事故时,责任主体仍是研发者、生产者以及使用者。法律责任通常包括民事责任和刑事责任。

  根据《侵权责任法》第54条和57条的规定,患者在诊疗活动中受到损害,医疗机构及其医务人员有过错的,或者医务人员在诊疗活动中未尽到与当时的医疗水平相应的诊疗义务的,由医疗机构承担赔偿责任。此外,根据《刑法》第335条规定,医务人员由于严重不负责任,造成就诊人死亡或者严重损害就诊人身体健康的,构成医疗事故罪,医务人员需要承担刑事责任。总之,不管追究医疗事故的民事责任还是刑事责任,问题的核心都是相关人员是否存在过失。相对于民事侵权,构成医疗事故罪则要求医务人员存在重过失。

  目前,在诊断领域,AI的数据分析结果或判断,起的作用和传统医疗中的验血、B超检查结果同样,仅仅是辅助医务人员进行疾病诊断。因此,发生误诊造成患者损害的责任主体仍然是医务人员。使用AI系统的医生在选择该系统时必须采取合理的谨慎态度,而不能以表面数据来做直接判断,医生应该尽可能地核实结果,否则如疏忽大意参照AI的建议最终给出了错误的诊断,从而耽误了患者治疗并造成患者受到损害的,自然需要根据情节承担民事或刑事责任。如果医生未能使用AI系统来避免医疗错误,也同样有可能被认为是疏忽大意。因为,托福听力人物类话题怎么答,医生为病人提供诊断服务,应当符合当时的医学水准。如果在某个领域,AI系统已经完善且已有令人满意的治理效果,此时医生拒绝使用AI系统使得特定的患者承受错误的诊断,并造成了损害,这种情况下,医生有可能需要承担过失责任。当然,AI被设计出来就是为了让其发现新的联系并创造创新性的解决方案,由于AI算法具有不透明性,在某些情形下,可能无论是医生还是开发人员都不知道AI建议背后的逻辑,由于不具有预见可能性,此时因不采纳医疗AI的建议而误诊的不应当被视为存在过失。

  在治疗和护理领域,医疗AI均有可能引发医疗事故。现阶段医疗手术环节的主要角色仍然是医生,因医疗AI引发医疗事故的,首先要追究医务人员的过失责任。其过失的判断构成与上述出现误诊时的情形基本相同。医务人员因未尽到注意义务而造成医疗事故的,需要承担过失责任。当然,从医术正当性的角度而言,医务人员应当履行谨慎操作的义务。为了实现这一目的,应在正确掌握操作技能的基础上才能使用医疗AI,在未能掌握操作技能的情况下鲁莽操作,或者未按照使用说明步骤误操作,给患者造成损害的,当然要承担侵权责任,如果情节严重,给患者造成了死亡或者严重损害就诊人身体健康的行为,甚至需要承担医疗事故罪的刑事责任。

  AI系统很复杂,不可能不存在任何缺陷。佛教七宝石的传说故事,因硬件故障或电气噪音、代码错误等都可造成产品缺陷。此外,系统没有得到合理的维护和更新,也会直接产生错误的判断或命令执行。医疗AI没有经人的过失行为直接导致患者损害结果发生的,其自主决策能力带来的不可预测性将中断医疗机构与患者损害之间的因果关系,在医务人员根据相关手册正确操作智能医疗机器人后,难以认定医疗机构在诊疗活动中未尽到合理注意义务而存在过错。因此,此情形之下可以考虑的追责对象只能是医疗AI仪器的生产者(包括程序的开发者)。

  医疗AI的生产者需要履行告知使用者培训后再使用的义务,否则制造商存在过失。如果因为机器本身的设计缺陷而导致损害结果发生,理应适用产品责任规定。医疗AI属于医疗器械,依照《侵权责任法》第41条的规定,因产品缺陷而导致他人生命、身体和财产法益遭受损害的,即使无法证明生产者存在过失,仍然可以追究生产者的赔偿责任。而且,依照《刑法》第145条的规定,生产不符合保障人体健康的国家标准、行业标准的医疗AI、或者销售明知是不符合保障人体健康的国家标准、行业标准的医疗AI,足以严重危害人体健康的,将构成“生产、销售不符合标准的卫生器材罪”,需要承担刑事责任。为了明确责任,国家应当制定统一的医疗AI安全标准,以提供缺陷判断依据。

  如果是确实已经过充足而严格的实验,通过权威机构的相关安全认证,仅仅因科技水平的限制,人的认识能力不足等原因而导致AI造成医疗事故的,可以认定为医疗意外,生产者无须承担责任。但有必要引入责任保险制度。这样可以在高效救济受害人的同时,分减轻生产者的负担,分散事故风险,有利于医疗AI的创新和发展。

  医疗大数据是医疗AI的应用基础。医疗数据中几乎包含了公民的所有个人信息,除了姓名、年龄、身高、体重等基本信息外,还有现在及以前的健康状况、甚至是基于基因检测而获得的基因信息。负面的医疗信息,特别是敏感度极高的负面基因信息,一旦被泄露,将使受害人在就学、就业、加入保险等方面受到歧视。我国无论是宪法、民法还是行政法都规定医务人员具有守密义务,违反了这些规定,如果不存在正当化事由,会被追究民事责任、行政责任,情节严重的,还有可能构成“侵害公民个人信息罪”,受到刑事处罚。但刑法不应成为社会管理法,法定犯不应成为社会治理中的利器,罪刑法定原则也不应成为社会治理失范的牺牲品;法定犯时代坚守法治国的罪刑法定原则具有更加特殊的意义。

  医学的传承和发展离不开医学研究。每一个人享受的医疗服务都是建立在前人贡献自己医学数据的基础上。人是社会的人,从人类社会群体之间具有“连带性”的角度出发,为了维护和促进人类健康,患者有义务在自己不受伤害、或者受益与伤害成比例的情况下,配合医务人员开展医疗AI的开发与使用。但这是道德义务而非法律义务,不能强求患者提供医疗数据。现实可行的办法是,在使用医疗数据时,应当对其进行匿名化处理,实在难以进行充分匿名化处理的,则必须要获得患者本人的同意。当然,也要坚决限制数据垄断,坚持AI决策透明化。国务院《关于促进和规范健康医疗大数据应用发展的指导意见》(2016),已经把医疗大数据列为国家的基础战略资源。因此,我国将来应当通过完善包括医疗信息在内的个人信息保护立法,在保护公民隐私的基础之上,充分利用医疗大数据,建设国家级医疗大数据资源库。

  AI在医疗保健领域的出现同时带来了希望和恐慌。一方面,它带来了更准确的诊断、建议、更多的个性化治疗和更少的不必要诊断、治疗以及保健。另一方面,为医学误诊以及医疗事故的责任分配提出了法律挑战。不同的处理方式会造成不同的影响,因为它可以加速或阻碍新技术的引进。目前,我国尚未出台法律法规对AI医疗进行有效监管,因未建立医疗AI适用的质量标准评估体系,无法对AI按数据和算法进行有效验证和评价,且未完善对医疗数据的保护和利用的法制框架。因此,我国应尽快补充完善相关法律法规,建立完善的技术标准和法律归责制度,平衡好患者、医务人员、医疗机构、医疗AI的设计者、生产者的利益与责任。要在综合衡量医疗AI风险和利益的基础上,结合各方注意义务的关系去认定各方的过失责任。在数据保护上,出台专门的医疗信息保护法,在保护好患者隐私的基础上,充分实现医疗数据的价值,造福国民健康。总之,对于医疗AI这一拥有重大应用前景的新技术,我们应当秉承包容的心态和审慎的态度,坚持以“前端预防”代替“末端惩治”,通过“法法衔接”,以体系性的法律规制去应对其所带来的挑战。

 
 
 

               
    友情链接:
    现场报码,本港台现场报码室,本港台同步现场报码,本港台开奖现场报码室,香港赛马会论坛,本港台现场报码视频,本港台现场报码开奖。
香港马会六合神算| 香港最快开奖结果直播| 香港最快开奖现场直播| 百家博心水论坛| 01699高手论坛| 真正本港台开奖现场直播室| 天下彩| 金算盘| 买码六合宝典资料| 黄大仙救世报平特一肖| 总冠军心水论坛| www.gjp99.com|