俄罗斯正在开发一个法律框架来规范人工智能(AI),专家说,不需要立即进行全面的监管。取而代之的是,专注于改善道德和技术标准以为AI技术的开发人员和用户设定界限。
现有的俄罗斯法规直接或间接影响AI的发展和使用,可能导致某些法律风险,需要企业和开发商仔细考虑。
AI的发展是国家政策的优先事项。俄罗斯采用了几项为该国AI发展的关键目标和指示的行为,以及实施机制,其中包括:
但是,这些文件仅反映了俄罗斯AI发展的战略目标。
在2020年,采用了法律来为俄罗斯的AI发展创造条件。主要的专注于创建实验法律制度(ELR)或监管沙箱 - 一种工具,允许在测试模式下实施创新。
要创建ELR,公司或个人企业家必须开发一个项目,提交该项目并获得当局的批准。
在包括俄罗斯在内的大多数国家,知识产权法规并不能保护AI生成的内容。如果作者对作品做出了创造性的贡献,而AI仅被用作工具,则该结果的内容可能受版权保护。
第三方权利。许多AI系统都在大型数据集上进行了培训,而用户实际上不受限制地形成查询,并且可以:
从字面上解释了重要的部分(例如,超过50%的工作)。它是基于定性和定量标准确定的,这些标准像通信容器一样相互作用:越小,另一个必须越大。
因此,如果在生成的对象中复制受保护工作的各个要素,则法院将分析是否使用了受保护的(实质性)元素。如果发现了这样的元素,则可以将生成对象的使用视为非法,并禁止其使用。
以一种或另一种形式的个人数据可以在AI操作中使用:开发人员培训AI模型;用户生成各种结果;在其他情况下。这种处理必须遵守个人数据立法。
潜在问题取决于主题的状态,并包括以下内容:
俄罗斯法律的域外应用。2022年,俄罗斯数据保护法添加了域外条款。根据合同或同意从俄罗斯公民那里收集数据被认为是将俄罗斯个人数据法应用于外国实体的足够理由。
处理法律理由。只有在有法律理由(例如同意)时,公司才能处理个人数据。
使用敏感数据。除其他外,还可以使用AI系统来分析个人的声音或图像。在某些情况下,这些可能被归类为生物识别个人数据,这些数据受到更严格的控制和法规的约束。
本土化。在收集俄罗斯公民的个人数据时,必须使用位于俄罗斯的数据库进行存储和某些其他行动。
跨境数据传输。传递国外数据需要特殊要求:
自动决策。法律禁止做出法律后果或以其他方式影响主题权利的决定,仅根据未经书面同意的个人数据自动处理。
法律,组织和技术措施的应用以确保个人数据安全。这些措施主要旨在通过个人数据正确地组织工作,并最终保护其机密性。
通常仅在人的同意下才允许出版和进一步使用一个人的形象,包括照片,视频录制或描绘它们的艺术品。
道德权利与个人(包括他们的外表,艺术或日常形象,声音和其他可感知的个性表现)是密不可分的,并且受法律的保护。因此,例如,一个人的声音(包括生成的声音)受到保护,其使用需要同意。
AI可用于创建广告材料,随后的此类广告的分布必须遵守广告立法。
该法律确定了广告的几个要求。必须彼此诚实,公平,完整和道德。为某些广告对象(例如酒精,医疗设备和金融服务)建立了其他要求。如果使用AI来创建广告材料,则有必要确保所得产品符合法律要求。
俄罗斯立法定义了各种类型的禁止信息。如果确定了禁止的信息,则当局(通常在电信运营商或托管提供商的帮助下)会启动一项程序以阻止信息资源。如果删除了禁止的信息,则可以恢复访问权限,除非永久限制。
阻止程序可能会根据信息类型而有所不同(例如,有或没有通知的情况下,例如法外或司法阻塞)。
如果公司计划使用AI创建用于后续分发的材料,建议以下内容:
建议技术是根据用户偏好收集和分析提供信息的AI或数据挖掘的子集。
使用建议技术的资源所有者必须履行几项义务,包括:
在当前的国家政策下,对AI系统的所有后果的责任在于个人或法人实体。现有的民事和刑事责任机制不需要根本的变化,并且可以在AI造成的伤害的情况下应用。
民事责任.如果个人,法人实体或其财产受到伤害,造成伤害的人必须完全补偿受害者。该规定是普遍的,适用于所有不受法律明确监管的侵权行为。
因此,普遍的侵权原则适用,这意味着AI造成的伤害的责任在于造成伤害的人,但前提是他们的行为构成了民事犯罪。
根据情况,责任方可以是AI开发人员,AI,AI用户,商品制造商或使用AI的服务提供商的独家权利所有者。法院将逐案确定这一点,这很可能是基于某些专家意见。
刑事责任.AI被定义为犯罪的一种手段(仅仅是工具),并且有关责任的刑法规定完全适用于使用AI技术犯下的犯罪。