10月9日,2024年诺贝尔化学奖揭晓,与此前揭晓的物理学奖相呼应,这一殊荣同样授予了人工智能(AI)领域的突破性成果及其背后的科学家。
人工智能不仅牢牢吸引了全球学术界的目光,还在工业界和社会生活的各个层面产生了深远影响。毋庸置疑,AI技术的迭代升级正逐步成为推动社会发展进步的重要力量,但与此同时,AI所引发的问题和担忧也日益凸显。
随着AI技术的突破性发展与创新应用的不断涌现,制造虚假消息、图片及视频的门槛显著降低。据有关评估预测,在未来两年内,虚假信息和谣言可能会严重扰乱多个经济体的选举过程,同时,AI工具的日益普及已经促使伪造信息大量涌现,从复杂的语音克隆到假冒网站乃至合成内容,均呈现激增态势。美国加州大学伯克利分校的哈尼·法里德指出:“人工智能驱动的谣言之所以成为问题,在于其传播的巨大规模、惊人速度以及易于启动的特性。”如今,这类攻击无须国家资助的势力或财力雄厚的组织参与,一个拥有基本计算机知识、能够使用生成式AI服务的人便能轻易制造出大量的虚假内容。
科技企业正纷纷加码布局AI抢占市场,追求其带来的潜在利益,然而,AI投资背后的风险也不容忽视。在AI技术的投资构成中,基础设施的投入占据了相当大的比重,这涵盖了硬件芯片、云计算、数据处理以及边缘计算等多个方面。Goldman Sachs发布的报告《生成式AI:投入很高,收益太少?》(《Gen AI: Too much to spend, too little benefit?》)显示,当前市场对人工智能投资的前景并不乐观。Goldman Sachs金融研究部门的主管Jim Covello在相关评论中指出,AI技术当前面临的一大挑战在于,其高昂的成本难以通过实际应用中产生的效益来充分弥补。举例来说,AI在执行基础任务时,常常会输出难以解读或无实际意义的结果,这大大降低了其在实际应用中的价值。
利用AI读论文、整理摘要等已逐渐成为学生群体跟踪相关领域研究动态的得力工具。一方面,这一趋势无疑加速了科研进程,提升了研究效率。2023年底,一项针对我国高校学生的问卷调查结果显示,84.88%的受访者使用过AI工具,77.51%的受访者认为AI工具可提升工作和学习效率。然而,另一方面,利用AI算法伪造科研数据、生成欺骗性研究论文等行为却严重损害了科学研究的可信度与声誉。为应对滥用AI给科研诚信带来的挑战,前不久,中国科学院公开发布八条诚信提醒,要求该院科研人员和学生在科研活动中规范使用AI技术,避免误用、滥用AI技术引发的科研诚信风险。其中提到,在选题调研、文献检索、资料整理时,可借助人工智能技术跟踪研究动态,收集整理参考文献,但要对人工智能生成信息的真实性、准确性、可靠性进行辨识。
近年来,随着物联网设备的普及,从智能家居到可穿戴设备,个人生活的诸多细节被数字化并连接到互联网,这为AI训练提供了庞大的数据源。然而,一些厂商在收集用户数据时,其隐私政策表述模糊,导致用户在不完全了解的情况下便“默许”了数据的使用,个人隐私在不知不觉中遭受侵犯。近日,科技巨头Meta公司确认,用户通过其Ray-Ban Meta智能眼镜所拍摄的照片和视频可能成为公司人工智能模型训练的数据集,这一消息迅速引发了公众对数据安全的深切关注与热烈讨论。除此之外,AI给个人隐私带来的挑战还体现在算法的“黑箱”特性上。即便数据收集过程合规,AI模型如何处理这些数据、作出了哪些决策,往往对用户而言是不透明的。这种不透明性使得用户难以知晓自己的个人信息在AI系统中究竟经历了怎样的处理过程,也无法确定这些信息是否被合理、安全地使用。
随着2024年诺贝尔物理学奖和化学奖相继颁发给AI领域的突破性成就,我们深刻感受到人工智能技术对人类社会的深远影响。然而,荣耀背后,AI发展过程中面临的问题和挑战同样不容忽视。从制造虚假信息、扰乱社会秩序到损害科研诚信、侵犯个人隐私,AI技术的双刃剑特性越发显现。因此,科技企业、科研机构以及社会各界应共同努力,既要充分发挥AI技术的巨大潜力,也要加强监管与自律,确保AI技术在合法、合规的轨道上健康有序发展,从而为各行各业的高质量发展注入强劲动力。(记者吴双)