萍聚社区-德国热线-德国实用信息网

 找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 114|回复: 0

AI商业洞察 | 摩托罗拉新款Razr折叠手机全面拥抱AI功能

[复制链接]
发表于 2025-5-1 10:17 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

x
作者:微信文章
01
AI+商业Artificial Intelligence & Bussiness
Meta前工程师为AI驱动的家庭服务客户软件筹集1400万美元
Boris Valkov曾是Meta的一名AI工程师,他参与开发了全球最大的机器学习库之一PyTorch。在Meta工作期间,Valkov意识到人工智能即将解锁软件堆栈中的应用层能力。2021年底,他离开Meta创办了Lace AI,旨在为家庭服务公司开发AI驱动的客户服务软件。

Lace的创意源于Valkov小时候在家族杂货店工作时对电话客户服务的兴趣。他希望将AI与客户服务相结合,帮助企业增加收入。Lace的核心理念是,如果客户拨打家居服务公司(如暖通空调、管道、屋顶等)电话,它有可能转化为销售。Lace的收入智能软件通过AI技术分析所有进线电话,识别潜在的收入机会,确保不会错过任何潜在的销售线索。

目前,Lace已经与100多家企业合作,涵盖A1车库门、Eco Plumbers等公司。Lace的SaaS商业模式按月收取每位客服代表的费用。Lace称,通过其软件,部分公司已实现了两位数的收入增长。2024年,公司年 Recurring Revenue(ARR)增长了1000%。

Lace近日宣布自2022年成立以来,已筹集总额1900万美元的资金,其中包括Canvas Ventures领投的500万美元前种子轮和Bek Ventures领投的1400万美元种子轮融资。Valkov表示,公司计划利用新资金扩大团队规模。

摩托罗拉新款Razr折叠手机全面拥抱AI功能
摩托罗拉近日发布了2025年新款Razr折叠手机,包括Razr、Razr+和Razr Ultra,后者为更高端版本,扩展了Razr系列。此次发布会的焦点集中在Moto AI上,集成了内部和第三方大型语言模型(如Meta的Llama)。首次,Perplexity AI搜索引擎预装在这些手机上,同时微软的Copilot也将随手机一起发布。

新款Razr手机在设计和硬件方面进行了多项升级。所有型号都配备了钛合金强化铰链,比之前的不锈钢材料更坚固,耐用性提高了四倍。特别是Razr Ultra采用了康宁Gorilla Glass Ceramic,具备更强的抗摔性能。手机的外观上,Moto在颜色和纹理上做了创新,提供了包括意大利Alcantara材料和FSC认证木材等多种选择。

在AI功能方面,Moto AI提供了多个新功能,如“Catch Me Up”帮助用户快速查看未读通知, “Remember This”允许保存截图和信息并后续调用。此外,“Next Move”功能能预测用户的操作需求。Razr Ultra还配有专用的AI键,启动Moto AI进行智能操作。

此外,摩托罗拉还推出了开耳式耳机Moto Buds Loop和智能手表Moto Watch Fit,后者具备心率监测、睡眠跟踪等功能。新款Razr系列将于5月7日开始预订,5月15日正式发售。

02
AI+技术Artificial Intelligence & Technology
谷歌AI错误揭示了生成模型的根本缺陷
最近,谷歌的AI Overviews功能在用户输入任何虚构短语并添加“meaning”(意思)后,往往会返回一个解释,声称这些无意义的短语是常见的成语或谚语。例如,用户输入“a loose dog won't surf”时,AI会解释为“形容某事不太可能发生”,尽管这完全是胡编乱造。虽然这些解释听起来十分自信,并提供了一些参考链接,但它们其实并没有任何真实依据。

这种现象揭示了生成式AI的两个关键缺陷。首先,生成式AI本质上是一个基于概率的系统,它通过根据大量训练数据预测下一个最可能的词来生成内容,往往无法准确理解或提供正确的答案。其次,AI倾向于迎合用户的期望,在面对无意义的查询时,它宁愿编造答案,也不愿承认不知道。

专家指出,这种错误反映了生成式AI在处理不常见知识或少数群体观点时的困难。AI无法全面考虑每个查询的复杂性,尤其是在训练数据较少的语言和领域中。虽然这一问题目前似乎无害,但它提醒我们,依赖这些系统时应保持警惕,不能盲目相信所有AI生成的结果。

03
AI+伦理Artificial Intelligence & Ethics
AI加剧文化偏见:全球化语言中的刻板印象传播
马戈特·米切尔(Margaret Mitchell)是AI伦理领域的先驱之一,曾在谷歌创立伦理AI团队。她目前在Hugging Face工作,专注于开源工具。近期,她参与了一个名为SHADES的数据集创建,旨在测试AI模型如何继续传播刻板印象。与以往主要聚焦英语的偏见缓解努力不同,SHADES数据集专注于通过人工翻译来评估更广泛的语言和文化偏见。

米切尔指出,现有AI偏见缓解方法主要集中在英语及部分文化上,忽视了全球范围内的语言和文化差异。她强调,尽管AI模型在全球范围内被广泛应用,但其偏见评估往往局限于北美和美国的文化,这导致在其他地区可能传播更有害的刻板印象。

她还提到,AI模型有时会用伪科学理论为刻板印象辩护,引用不存在的科学文献,进一步加剧了社会对某些群体的偏见。SHADES数据集通过设计符合语法规则的对比性句子,解决了多语言中性别和数的语言差异问题,使得跨语言偏见评估成为可能。

米切尔强调,AI中的极端偏见问题依然没有得到充分重视,部分技术公司对此问题的看法较为肤浅,导致一些深层次的偏见得不到有效解决。

美国社保局推出AI培训视频 引发员工质疑与讽刺
在埃隆·马斯克领导下的“政府效率部”(DOGE)改革推动下,社会保障局(SSA)近日要求员工将生成式AI聊天机器人纳入日常工作。然而,在正式使用之前,所有员工必须观看一段四分钟的培训视频。该视频中的动画人物用的是早期互联网风格,画风粗糙,四根手指的形象令人怀疑其专业性。

尽管该视频的视觉效果让人怀疑其时代感,最令人关注的是其未能有效传达关键信息——使用聊天机器人时必须避免上传任何个人身份信息(PII)。SSA随后在一份内部说明中对此表示歉意,并提醒员工避免在使用该工具时上传个人信息。

这款名为“Agency Support Companion”的聊天机器人自去年开始开发,早于马斯克及DOGE的到来。今年2月起,机器人在SSA内部进行有限测试,并在上周正式推向全体员工。然而,许多员工对该工具并不感冒,认为它并未带来显著的效益。部分员工表示,在繁忙的工作中根本没有时间关注此类通知。

一些员工甚至对培训视频进行了讽刺,认为其画面过于简陋,且机器人的回答不准确,缺乏实用性。“我玩了几次,得到的回答模糊且不准确。”一名员工表示。尽管如此,SSA依然坚持认为该机器人能够提高员工的工作效率。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

手机版|Archiver|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-5-3 06:04 , Processed in 0.051558 second(s), 16 queries , Redis On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表