即时新闻

AI风潮不可逆
监管和鼓励都重要

来源:羊城晚报     2023年06月03日        版次:A08    栏目:财经辣评    作者:戚耀琪

  羊城晚报财经评论员  戚耀琪

  

  据上观新闻报道,5月30日,超过350名人工智能行业的高管、研究人员和工程师联合在非营利组织“人工智能安全中心”发布的一份公开信上署名,公开信内容只有一句话:减轻人工智能带来的人类灭绝风险,应该与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项。

  在签署人名单里也有多位中国高校教授,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅就是其中之一。他认为,生成式人工智能产生的合成虚假信息,会极大降低社会信任。网络通信又已使万物互联,可以使相关风险在世界规模放大。人工智能仍然是一个工具,没有能力成为责任主体。不过他也表示,此举不是要阻碍人工智能的发展,恰恰是要探索人工智能稳健发展的途径。

  AI目前在很多领域已经崭露头角,不管是不是真的AI,其洐生工具已经让率先使用的人们用得如痴如醉。但其实它离真正意义上的强人工智能,即在所有人类智能任务上都能匹敌或超越人类,还有很长的路要走。相对于未来AI产生的巨大生产力,目前它还处于“幼儿园”阶段。提早对幼儿期的一个物种提出各种担忧或者不利的假设,这其实不是坏事,至少人们可以充分去设想和管控潜在的风险。

  但是科技的发展速度又不以人的意志为转移,所有的AI企业不会因为一纸签名书而停,也不会等待发令枪响再跑。更何况人工智能分分秒秒都在繁衍知识,它几乎就和丛林野生无异。当人们预感风险,却又抓不住风险的尾巴时,是积极防范还是积极运用,这或许就成为许多地方或者企业的分水岭。这就是站在岸上保持冷静,还是摸着石头抢先过河好,又或者建桥修路完成后才去过河更好。

  核武器和大流行病是会毁灭人类的,而AI作为技术,可能让人们的就业岗位消失、隐私被曝光、版权被侵犯,同时它也可以被用于造福生活。就如核能可以用于原子弹,也能用于提供能源一样。这个道理其实很简单。提出AI威胁论的背后,部分就是因为已经领先一步掌握了AI技术,从而推动设立更高的监管门槛防止后来者进入。再加上这些巨头的算法和模型建构的优势,已经形成了马太效应,后来者再受监管,想进步只会是望尘莫及。

  所以这轮AI变革带给所有企业的窗口期,可能没有想象中的长。既得利益者也许会根据自己的需求制定不同的游戏规则。一旦如此,中小企业及广大应用者再被束缚手脚,就可能没法在AI上面进行更自由自在的创新,形成大规模的应用。如此,AI造福人类的机会就会大大削弱。无论对AI是各种鼓吹还是各种蔑视,要求监管AI和鼓励AI创新,都是同等重要的事情。