上证报中国证券网讯(记者王宙洁)谷歌当地时间4月7日宣布,为其Gemini聊天增加新的心理健康支持功能,并承诺投入3000万美元,帮助全球危机热线扩大服务能力。一直以来,
国家知识产权局近日发布风险提示,OpenClaw等智能体工具被曝光默认安全配置脆弱,易引发严重安全风险。受访专家认为,企业在引入和应用AI技术时,必须高度警惕可能带来的科技伦理风险。这类风险不仅关乎企业的声誉和合规,也会影响社会发展的公平稳定。
谦楹科技创始合伙人兼执行总裁孔玲告诉上证报记者,AI的科技伦理风险主要包括以下三类:
一是算法歧视与偏见。AI技术并不绝对中立,其训练数据和算法设计往往反映了设计者和使用者的价值观与利益取向。如果训练数据集不完整或存在偏见,AI模型可能会复制甚至放大这些偏见,导致系统性歧视。
二是隐私侵犯与数据安全。AI模型的训练和运行高度依赖海量数据,使得与隐私保护面临前所未有的挑战。比如企业是否在未经充分授权的情况下,过度采集用户个人信息(如面部特征、行为轨迹等)用于模型训练;生成式AI可能通过提示词攻击等手段被诱导输出训练数据中的敏感信息。此外,在职场中滥用AI监控系统(如实时追踪员工动作、分析键盘敲击频率),这类严重侵犯劳动者隐私和尊严的情况也时有发生。
三是资源消耗与环境足迹也是不可忽视的风险。AI的有效运行依赖高强度算力支撑,从硬件生产到模型训练再到推理,均带来巨大的环境资源压力。数据显示,全球AI数据中心耗电量预计将从2024年的16%猛增至2030年的53%;的冷却系统需要消耗大量水资源,对当地水资源供应构成巨大挑战。
OpenClaw方面曾表示,理解其伦理影响已不再只是学术探讨,而是至关重要的。根据其于今年2月发布的有关伦理影响的指南,算法偏见、系统责任与义务、隐私与等都是未来伦理中需要关注的重点。
在算法偏见方面,OpenClaw称其通过推广多样且具有代表性的数据集以及提供偏见检测和缓解工具来应对这一问题。在安全性方面,OpenClaw集成了先进的隐私保护技术,包括通过向数据添加统计噪声来模糊个人身份等。
孔玲提示,在诸多挑战下,企业应当未雨绸缪,如建立算法审查机制,确保训练数据的多样性和代表性;提高算法决策的透明度;定期开展公平性测试,及时纠正算法偏差;严格遵循“最小必要”原则收集数据,落实用户知情同意机制;建立完善的数据分级分类管理和应急响应机制。
以在实践中深度融合AI的电力行业为例,孔玲认为,系统属于国家关键信息基础设施,AI应用的安全风险具有极高的外溢性。企业在应用AI的过程中,要防范算法对抗与网络攻击,确保核心数据不出域等。此外,电力行业拥有庞大的产业工人队伍。还有可能对传统岗位产生挤出效应,从人力资源管理方面考虑,电力星空体育平台官网企业应加大对员工的数字技能培训投入,帮助传统巡检工人转型为AI设备操作员或数据分析师,确保技术红利惠及广大劳动者,也是公正转型过程中的企业责任与担当。