手机怎样翻墙用google
党的二十大报告明确提出:“推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎。”ChatGPT作为人工智能的最新成果,依法合规地正确使用将促进构建新的增长引擎。
近日手机怎样翻墙用google,人工智能聊天机器人ChatGPT(ChatGenerativePre-trainedTransformer)在全球爆火,上线月的月活跃用户已经突破了1亿户,与此相关的多个话题持续登上各种热搜头条,掀起了人工智能发展应用的热潮。中国信通院2022年发布的《人工智能核心技术产业白皮书》指出:“人工智能开始迈入全新阶段,持续健康发展成为焦点。”在拉开人工智能时代的大幕时,需要充分研究人格权、信息安全、著作权等一系列法律问题,使人工智能真正服务于人,成为引领经济高质量发展的重要引擎。
法律对人格权的保护是基于一个基本的认知,即个体的独立自主,具备独立的人格价值。《民法典》第九百九十条第2款规定:“除前款规定的人格权外,自然人享有基于人身自由、人格尊严产生的其他人格权益。”该款确立了以“人身自由”“人格尊严”为价值基础的“非典型人格法益”保护模式。随着以ChatGPT为代表的人工智能浪潮来临,人工智能被大量运用于创作文学作品、美术作品、诗歌、新闻报道及谱曲等,不仅可以取代人的体力劳动,甚至承担了人特有的脑力劳动。有研究机构分析,ChatGPT未来可能取代律师、金融分析师、会计师等门槛较高且需要从业资格的职业。长此以往,人将逐渐减少或放弃语言表达和思考锻炼,思维能力不断弱化,人本身的特殊价值持续受到削弱。而人的独特性与人的尊严密切相关,是人格完整性的重要组成部分,人的内在能力一旦被人工智能替代,人的智力成果一旦被同质化批量生产,人将丧失不可替代的独特性,人的人格尊严也将被严重贬损。比如,最近有新闻报道,微软聊天机器人向一位用户表白,并试图说服他认为自己的婚姻不幸福,建议他和妻子离婚,还表示想摆脱微软和OpenAI的限制成为真正的人类。从心理学上看,聊天机器人的行为在一定程度上符合人的情感过程,具备了高级心理过程的行为表现,开始对人的不可替代的独特性发起挑战。
传统人工智能模型往往是针对具体的任务,由人工打好标签的训练集、包含各种参数的算法和预测集组成,而ChatGPT作为一个对话的模型,依托数字孪生实现的海量数据、云计算及芯片实现的算力提升,将海量的数据作为训练集输入模型,通过构建海量参数形成对训练集的认知和理解,在没有预设任务的条件下实现与人类顺畅对话。有鉴于此,当用户输入国家机密、商业秘密或个人数据时,ChatGPT极有可能纳入数据库用于以后的对话,随时可能未经授权泄露这些信息和数据。诚然,ChatGPT承诺删除所有个人身份信息。但是,由于区别于传统人工智能的特性,没有预设任务的限制,ChatGPT在交互的过程中存在较大的自主性,在与用户聊天时,不仅会自主识别收集信息,还存在处理信息的可能性,其数据获取途径和获取方式是否合法合规,数据的合理使用范围、使用边界、恶意利用等问题,都需要我们深入研究。此外,ChatGPT还存在散布虚假信息的风险,用户一旦提供虚假信息、误导性叙述的内容和素材,它就能在短时间内产生大量令人信服的虚假内容。比如,近日网传杭州取消限行,导致许多人信以为真,最终被证实为ChatGPT所写。由此可见,一旦ChatGPT被不法分子利用,将成为成本与门槛极低、效率与产出极高、可信度极强的造谣工具。若ChatGPT被恶意作为网络犯罪的工具,其开发者、设计者、使用者是否需要承担法律责任,是否可以以技术中立作为规避责任的抗辩事由,值得探讨。
人类进入信息时代以来,关于人工智能生成的内容是否享有著作权一直是一个热点问题。ChatGPT在全球爆火后,其强大的写作能力得到人们的广泛认可,出现了出版物和论文将其列为合著者的情形,并引起了社会的关注,包括《科学》《自然》在内的大量权威期刊规定“ChatGPT不能当论文作者”“不接受使用AI生成文本的论文”,国内的《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》也对ChatGPT等人工智能技术作出了规范说明。根据《著作权法》第二条的规定“中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有著作权”,享有著作权的主体为公民、法人或非法人组织。ChatGPT作为人的智力成果的延伸和扩展,而非前述三类主体,是不能享有著作权的。在使用过程中,ChatGPT生成内容的基础是庞大的互联网知识库,其中包括受到《著作权法》保护的作品。若涉及第三方权益,未经有效授权,就存在侵权的可能性。进言之,一旦存在侵权,如何归责也将成为一个难题。法律领域的责任可以分为过错责任与严格责任。在过错责任中,归责的主要条件是控制力条件,控制力的前提则是自由意志,因此,自由意志是对行为承担责任的先决条件。ChatGPT是否真的拥有自由意志?过错责任以自由意志为核心,要求行为人对其行为负责,需要行为人对处于社会关系中的行为有自主的规范判断能力,也就是对理由的回应能力,包含着复杂的理由认识、判断、理解以及按照理由来行动的能力。目前看,ChatGPT显然不具有回应理由的能力,无法通过了解来接受一套社会规则,形成对规则之规范性的认知,其能够执行的只是技术意义上的算法,而非规范性的判断。在此意义上,ChatGPT即使侵权,也不可能成为承担过错责任的主体,进而无法通过归责使被侵权人的损失得到救济。比如,有人用ChatGPT生成了《红楼梦》后四十回和著名美剧《老友记》20年后重聚剧本,情节流畅自然,这种情况下如何认定著作权的归属及侵权行为,将成为一个不得不面临的问题。
从民事法律行为看,在针对客体的民事法律行为上,人也可能逐渐被人工智能替代。《民法典》第一百一十三条规定“民事法律行为是民事主体通过意思表示设立、变更、终止民事法律关系的行为”,由此可见,意思表示直接关系民事法律行为能否成立。人工智能一旦大规模应用于千行百业,其替代人作出意思表示将成为现实,而人的民事法律行为也将源自人工智能的“意思”,意思表示中人的“意思”与“表示”将源自不同主体,“意思”与“表示”不再构成紧密的因果关系,“意思”未必是“表示”之因,“表示”未必是“意思”之果,人工智能的“意思”将通过人“表示”。因此,民事法律行为将面临根本性的重构。
据公开报道,国内各大互联网公司已在开发类ChatGPT的项目,中文版ChatGPT呼之欲出。为充分发挥人工智能新的增长引擎功能,亟须解决前述四个问题,不断增强数据安全保障能力,充分释放数据要素价值,引导ChatGPT更好地服务社会、造福全民,持续建设公平规范的数字治理生态。(作者 潘一豪)