《人工智能北京共识》的发布提出了R&D、使用和治理的15原则。

人工智能的伦理和规范是未来智能社会发展的基石,为了规范和引领人工智能的健康发展,为未来创造“负责任和有益的”人工智能。5月25日,《人工智能在北京的知识》发布,这些知识提供的“北京方案”,对于实现人工智能的“自律”、“善治”和“秩序”具有重要意义。

《人工智能知识北京* * *》由北京致远人工智能研究院、北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟联合出版。同时,北京致远人工智能研究院人工智能伦理与安全研究中心揭牌。

高校、院所、企业代表在“知识北京”上签名。

《北京人工智能知识》提出了人工智能研究、开发、使用和治理的所有参与者都应遵循的15原则,有益于人类命运的构建和社会发展。

北京致远人工智能研究院院长黄铁军发布《北京知识》

北京致远人工智能研究院院长黄铁军在发表《北京* * *》时强调:在研发上,主张要有利于增进社会和生态福祉,服从人类整体利益,在设计上符合伦理,体现多样性和包容性,尽可能多的人受益,对潜在的伦理风险和隐患负责,提高技术水平以控制各种风险,最大程度地享受人工智能发展的成果。

在使用方面,提倡善用、慎用,避免误用和滥用,最大化人工智能技术带来的收益,最小化其风险。我们应该确保利益相关者对其权益受到的影响有充分的了解和同意,并能通过教育和培训适应人工智能发展带来的影响。

在治理方面,要对人工智能部分替代人类工作持宽容和谨慎态度,鼓励探索能够充分发挥人类优势和特点的新工作,开展广泛的国际合作,享受人工智能治理的经验。人工智能的准则和治理措施要具有适应性和适当性,要进行长期的战略设计,确保人工智能在未来始终朝着有利于社会的方向发展。

此外,为了减少人工智能发展中可能存在的技术风险和伦理隐患,北京致远人工智能研究所成立了人工智能伦理与安全研究中心,由中国科学院自动化研究所研究员曾毅担任研究中心主任。

新成立的人工智能伦理与安全研究中心主任曾毅介绍了该研究中心。

曾毅介绍了人工智能伦理与安全研究中心的主要研究内容如下:“研究中心将围绕人工智能伦理与安全的理论探索、算法模型、系统平台和产业应用开展一系列研究。目前主要包括四个方面:一是构建低风险的机器学习模型和平台,建立机器学习模型安全性的评估体系,并结合具体领域进行验证。二是开展符合人类伦理的智能自主学习模型研究,实现人工智能行为和人类价值观的校准,并在模拟环境和真实场景中进行验证。三是建设数据安全示范应用系统,建立数据基础设施、数据分类、权限控制和数据审计,最大限度防止数据泄露,降低风险,探索允许用户撤销个人数据授权的机制和计算平台。四是构建人工智能风险安全综合沙盒平台,构建自动检测平台,从安全性、公平性、可追溯性、数据和算法的风险类型、影响程度和影响范围等方面对人工智能产品和应用进行全面的风险安全测试和评估,引导行业健康发展。”

北京市科学技术委员会主任徐强致辞

北京市科委主任徐强认为,经过60多年的发展,新一代人工智能正在全球范围内蓬勃兴起,深刻影响和改变着人类的生产生活方式,推动人类社会全面进入智能时代。人工智能涉及面广,一个领域、一个城市、一个部门、一个机构不可能独立应对人工智能带来的挑战。它需要充分集合科学家、企业家、产业联盟和各行各业的力量,多方参与,共同努力,不断推进人工智能伦理和规范的学术研究和应用,不断加强行业自律。

大会倡导北京市人工智能领域广大创新主体,积极实践并不断完善* * *知识内涵,营造良好生态,加快人工智能领域基础研究、核心技术创新和高技术产业发展,让人工智能更好地支撑北京市高质量发展和创新驱动发展战略的实施,更好地造福全人类。

未来,人工智能伦理与安全研究中心将提供技术服务,降低人工智能的风险和伦理隐患,促进人工智能行业的健康发展。