邬江兴院士ISCAI2024峰会发声:AI创新与安全,如何兼得?

阿刚侃侃谈 2024-08-01 15:37:55

在ISC.AI2024数字安全峰会上,邬江兴院士的发言引起了广泛关注。他直指当前市场的一个痛点:很多明知存在安全问题的产品,仍然被推向了市场,责任与风险的失衡状况令人担忧。

邬院士深入剖析了网络空间安全问题频发的根本原因,指出经典计算机体系结构存在技术基因缺陷。他进一步阐释,AI应用系统的安全问题可以分为非内生安全问题和内生安全问题,而后者主要源于存储程序控制机理的自在性矛盾。

“人工智能作为赋能技术,不能走先发展后治理的道路。”邬院士强调,否则将在网络安全、技术风险、社会影响等多个层面带来不可估量的风险。他特别提到,AI系统存在的不可解释性、不可判识性、不可推论性,是当前AI应用推广中的最大障碍。

那么,在AI技术飞速发展的今天,我们如何平衡创新与安全性的关系呢?这是一项复杂而重要的任务。

从研发初期开始,我们就应该将安全性作为设计的一部分,确保AI系统在设计时就充分考虑到潜在的安全风险。邬院士提出的内生安全理论强调,AI系统的安全性应由其内在构造决定,就像金刚石的硬度由其分子结构决定一样。

同时,我们可以利用AI算法的多样性和特异性,通过引入多个算法模型来增加判识维度,提高系统的鲁棒性和安全性。定期对AI系统进行安全性评估和渗透测试,也是发现并修复潜在安全漏洞的有效手段。

除此之外,提高AI决策过程的透明度也至关重要。这样,系统的行为和决策才能够被用户和监管者理解和验证,从而增强公众对AI技术的信任。

当然,制定明确的法规和行业标准也是必不可少的。这要求AI产品和服务在推向市场前必须满足一定的安全标准,从源头上保障技术的安全性。

在此过程中,鼓励技术、法律、伦理等不同领域的专家合作,共同研究和解决AI技术发展中的安全问题,也是推动AI技术健康发展的关键。

同时,提高用户对AI系统潜在风险的认识,教育他们如何安全地使用这些技术,也是保障AI技术安全应用的重要环节。

制定应急响应计划,以便在AI系统出现安全问题时能够迅速有效地应对,同样不容忽视。

最后,鼓励企业、研究机构和政府部门之间共享关于AI安全的最佳实践和经验教训,也是推动整个行业安全水平提升的有效途径。

0 阅读:6