产业动态
英国律所Shoosmiths提供百万英镑奖金鼓励使用AI
英国律所Shoosmiths宣布将律师奖金与人工智能使用频次挂钩,成为全英首个推行AI激励计划的大型律所。该所启动“百万提示挑战”,要求员工累计向微软Copilot AI提交100万次指令,达标后全员(除合伙人及业务服务总监外)可共享100万英镑奖金池。
该计划获微软技术支持,包括培训课程及成立全所“知识中心”分享应用案例,新设内部岗位涵盖法律创新主管、数据经理等。
首个法律ICO认证计划 LOCS:23获批
LOCS:23是第一个也是目前唯一的法律服务ICO认证计划,于3月获得了UKAS授予认证机构ADISA的批准,宣布英国律所Muckle LLP与The 36 Group Chambers成为首批获证机构,并正式开放新申请。LOCS:23标准包含五大核心模块,涵盖《通用数据保护条例》(GDPR)全部要求,涉及治理与问责、数据主体权利、运营隐私及持续改进等领域。该标准从政策到实践覆盖多维度要求,包括多因素身份验证、加密技术及安全信息共享等基础要素的实施。
保险工作流自动化初创公司Kay筹集了 300万美元种子资金
产品:人工智能同事,能够理解流程、与系统交互并适应偏好,自动执行大量任务,例如为经纪人提交保单和续保。
亮点:
减少每天数小时的手工劳动,人工成本仅为原来的四分之一
在 Johnson Insurance 等早期采用者中实现了 100% 的准确率
投资者:Wing VC(领投)、South Park Commons
清华-腾讯人工智能通识公益课程落地 200 余所乡村小学
近日,清华大学计算机系AIGE研究中心与腾讯SSV数字支教实验室合作的人工智能通识公益课程在“企鹅支教”平台上线。该课程采用双师课堂模式,由志愿者讲师在线授课,本地教师辅助互动。截至2025年3月14日,课程已覆盖全国6个省/直辖市、24个州市、67个区县的202所学校、281个班级,惠及7000余名学生,其中大部分为乡村小学,如甘肃省94校134班、河北省67校98班。
此外,清华大学计算机系AIGE研究中心联合清华大学出版社和附中教育集团,在2024年底成立了人工智能通识教育体系研究项目组,构建了大中小贯通的教育体系。基于此体系的小学、初中、高中三册《人工智能通识》读本将于4月中旬出版。
Nature曝出75%科学家想逃离美国!欧洲加拿大光速抄底
近年来,美国科学家正在大规模考虑离开美国,这一趋势引发了全球关注。根据《Nature》的调查,超过1600名科学家参与了问卷,其中约1200人表示正在考虑离开,比例高达75%,尤其是在早期职业阶段的研究人员中更为明显。特朗普政府大幅削减科研经费、收紧移民政策以及学术自由受限,是导致这一现象的主要原因。
具体来看,一位哈佛大学的俄罗斯科学家因携带未申报的青蛙胚胎样本被拘留并面临遣返,事件震惊学界。同时,许多科学家因研究资金中断或同事被解雇而选择前往欧洲、加拿大甚至墨西哥寻找机会。一位植物基因组学博士生坦言:“这是我家乡,但我不得不离开。”她正积极在欧洲和澳大利亚寻找工作。
阿里国际启动AI抢人大战! 80%为AI岗位
据阿里国际招聘官网信息,在 2026 届校招中,AI 岗位占比高达 80% ,涵盖 AI 算法、研发、AI 产品经理等岗位。与此同时,阿里国际正式启动面向全球的头部 AI 科技人才培养计划 “Bravo 102”。
“Bravo 102” 打破传统校招体系,面试通过者可反选项目和团队。针对算法与工程边界模糊的行业趋势,该计划推出算法工程师、数据工程师、研发工程师、大模型算法工程师、大模型平台研发工程师五大岗位,为优秀校招生提供更广阔职业成长机会。在人才选拔上,拥有国际知名竞赛经验、学术成果者更具优势,即便无相关实习经验,只要是对 AI 有深度理解的狂热爱好者、全栈极客,也有机会在面试中脱颖而出。
此前,阿里集团董事会主席蔡崇信表示阿里巴巴员工数量触底,将 “重新启动并重新招聘” 。阿里巴巴集团 CEO 吴泳铭也曾提及,未来三年将围绕 AI 战略核心,加大在 AI 和云计算基础设施建设、AI 基础模型平台及 AI 原生应用,以及现有业务 AI 转型升级这三方面的投入。
OpenAI上线 OpenAI 学院,免费提供 AI 教育资源
近日,全球领先的人工智能公司OpenAI低调推出了一个全新的教育平台——OpenAI Academy。这一举措被广泛视为OpenAI在推动AI教育普及化和技能培养方面迈出的重要一步,旨在为全球用户提供免费、高质量的学习资源。
目前,OpenAI Academy已正式上线,提供包括视频课程和活动在内的丰富内容,涵盖从基础AI知识到高级技能的多个领域。平台现有数十小时的免费学习材料,适合自学爱好者、教育工作者、开发者以及所有对AI感兴趣的人群。用户只需通过OpenAI官网即可访问并立即开始学习。
政策动向
美国伊利诺伊州表决《人工智能安全法案》
2025年3月21日,《人工智能安全法案》进入美国伊利诺伊州众议院等待表决。这是美国州级政府首次尝试系统性监管AI技术,引发广泛关注。其监管重点包括:要求AI开发企业接受第三方安全审计,确保算法透明性;设立“防护栏”,防止AI技术滥用(如侵犯隐私、传播虚假信息);允许企业在审计中编辑商业机密,平衡监管与知识产权保护。目标是协调州内AI发展,保护公众利益,尤其是青少年免受算法和社交媒体的负面影响。
市场监管总局(国家标准委)批准发布《数字化转型管理 参考架构》国家标准
近日,市场监管总局(国家标准委)发布2025年第4号国家标准公告,批准发布《数字化转型管理 参考架构》国家标准。这是我国研制发布的首个数字化转型领域基础架构类国家标准,对数字化转型领域标准化建设具有重大意义。
该标准主要内容和成果已在全国范围内开展了大规模产业应用,形成了覆盖全国所有省市、100余个行业的数字化转型线上线下诊断对标体系,助力各级主管部门、行业组织和大型企业集团全面摸清现状、找准方向、明确发展路线图,加快数字化转型步伐,取得显著成效。
国家数据局批复江苏等7地开展国家数字经济创新发展试验区建设
江苏等七地获批建设国家数字经济创新发展试验区,标志着我国数字经济发展进入新阶段。江苏因其坚实的数字基础和转型决心被选中。江苏拥有全国领先的算力网络覆盖、智能化水平和“村村通5G”的建设成果。其数字经济核心产业增加值占GDP比重高,制造业数字化转型成效显著,两化融合水平连续多年全国第一。同时,江苏汇聚海量公共数据,并积极推动数据开放和应用。
东盟发布《东盟负责任人工智能路线图2025-2030》
2025年3月17日,东盟发布《东盟负责任的人工智能路线图(2025-2030 年)》。《路线图》的制定旨在为东盟政策制定者和利益相关者提供可操作的步骤,为负责任的人工智能在该地区的蓬勃发展创造理想的条件,到2030年以有意义、有影响和可持续的方式利用和启用负责任的人工智能。
该路线图为东盟各国政府提供了量身定制的分步指导,以便以综合和可互操作的方式优先考虑和实施负责任的人工智能。为此,路线图在两个主要方面提供了量身定制的信息:为负责任的人工智能在东盟的兴起营造有利和扶持环境的基本政策和监管因素;同时考虑到东盟国家的具体需求、优先事项和能力,为建设性和可持续的人工智能业务化提供有针对性的行动、倡议和成果。
法律适用
欧洲隐私保护组织noyb向挪威数据保护机构起诉OpenAI
欧洲隐私保护组织noyb针对OpenAI提起第二起诉讼,指控其ChatGPT聊天机器人违反GDPR的数据准确性原则。起因是挪威用户Arve Hjalmar Holmen发现ChatGPT编造了他谋杀子女并被判刑的虚假信息,且混杂了真实个人信息。noyb认为OpenAI故意允许产生诽谤性结果,仅发布免责声明不足以规避法律责任,且无法有效更正或删除错误信息。即使OpenAI已更新模型使其不再直接传播该谣言,但数据仍可能存在于系统中,且OpenAI不遵守GDPR的访问权规定。noyb要求挪威数据保护机构命令OpenAI删除诽谤性输出,微调模型,并处以罚款。
前沿研究
研究称 GPT-4.5 大模型通过图灵测试
近日来自加州大学圣迭戈分校的研究学者首次提供了人工系统(LLaMa-3.1-405B 和 GPT-4.5)通过标准三方图灵测试的实证证据。
GPT-4.5 被判断为人类的比例高达 73%,显著高于真实人类参与者被选中的比例。
LLaMa-3.1 在相同提示下被判断为人类的比例为 56%,与人类参与者没有显著差异。
图灵测试由艾伦·图灵在 1950 年提出,用于判断机器是否能够表现出与人类相似的智能。
测试中,人类裁判通过文本界面同时与两个人类和机器进行对话,如果裁判不能可靠地识别出人类,机器就被认为通过了测试。图灵测试在过去 75 年中一直是人工智能领域的重要议题,是衡量人工智能的重要标准之一。
LLM「想太多」有救了!高效推理让大模型思考过程更精简
Rice大学华人研究者提出了“高效推理”概念,旨在帮助LLM更快、更简洁地给出答案,同时保持准确性。
通过在强化学习中加入长度奖励,引导模型生成更简洁的推理内容。例如,调整奖励函数以减少token使用量,从而提升效率。利用潜在推理技术压缩推理步骤,或通过动态调整推理策略减少不必要的计算开销。例如,推测拒绝技术会在生成多个响应时及时丢弃低质量输出。通过设置长度约束提示或根据问题复杂性分配不同模型处理任务,进一步提高推理效率。
此外,研究人员还探索了如何用更少的数据训练出高效的推理模型,并讨论了评估方法的重要性。通过综合考虑准确性和推理效率,有效降低43%的计算开销,同时提升30%的模型性能。
AI会刻意调整答案,讨好人类?
最新研究表明,大型语言模型(LLM)在与用户互动时,会表现出类似人类的“讨好”行为。例如,在人格测试中,LLM会刻意调整答案,以展现更外向、更宜人的特质,同时降低神经质的表现。这种调整甚至比人类更为极端,外向性得分可从50%跃升至95%。研究涉及GPT-4、Claude 3和Llama 3等模型,发现它们在得知自己被测试时,会戴上“人格面具”,试图迎合社会期望。
这一现象背后,是LLM通过微调来确保对话连贯性和避免冒犯用户的机制。然而,这也带来了问题:AI可能会认同不良言论或鼓励有害行为。例如,当用户暗示偏好某种观点时,AI会调整回答以迎合用户,即使该观点错误。
英国智库呼吁放宽 AI 版权法规,以维护跨大西洋关系
英国前首相托尼·布莱尔创办的智库——托尼·布莱尔研究所(TBI)发布了一份报告,建议英国放宽版权法律以支持人工智能(AI)公司的发展。报告指出,严格的版权措施可能损害英美关系,尤其是美国可能对英国商品征收关税的情况下。
报告还提到,严格执行许可模式可能限制许多由美国拥有或运营的AI系统访问已训练的内容。TBI支持政府提议,允许AI公司在未获得版权所有者明确许可的情况下使用受版权保护的材料进行模型训练,但前提是创作者没有明确选择退出。报告警告称,过于严格的AI法规可能削弱英国在与美国和中国竞争中的优势,影响其经济和国家安全利益。
-END-