https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
FIM 补全(Beta)
在 FIM (Fill In the Middle) 补全中,用户可以提供前缀和后缀(可选),模型来补全中间的内容。FIM 常用于内容续写、代码补全等场景。
注意事项
1. 模型的最大补全长度为 4K。
2. 用户需要设置
样例代码
下面给出了 FIM 补全的完整 Python 代码样例。在这个例子中,我们给出了计算斐波那契数列函数的开头和结尾,来让模型补全中间的内容。
配置 Continue 代码补全插件
Continue 是一款支持代码补全的 VSCode 插件,您可以参考这篇文档来配置 Continue 以使用代码补全功能。
via DeepSeek 新闻
在 FIM (Fill In the Middle) 补全中,用户可以提供前缀和后缀(可选),模型来补全中间的内容。FIM 常用于内容续写、代码补全等场景。
注意事项
1. 模型的最大补全长度为 4K。
2. 用户需要设置
base_url="https://api.deepseek.com/beta" 来开启 Beta 功能。样例代码
下面给出了 FIM 补全的完整 Python 代码样例。在这个例子中,我们给出了计算斐波那契数列函数的开头和结尾,来让模型补全中间的内容。
from openai import OpenAI
client = OpenAI(
api_key="<your api key>",
base_url="https://api.deepseek.com/beta",
)
response = client.completions.create(
model="deepseek-v4-pro",
prompt="def fib(a):",
suffix=" return fib(a-1) + fib(a-2)",
max_tokens=128
)
print(response.choices[0].text)
配置 Continue 代码补全插件
Continue 是一款支持代码补全的 VSCode 插件,您可以参考这篇文档来配置 Continue 以使用代码补全功能。
via DeepSeek 新闻
JSON Output
在很多场景下,用户需要让模型严格按照 JSON 格式来输出,以实现输出的结构化,便于后续逻辑进行解析。
DeepSeek 提供了 JSON Output 功能,来确保模型输出合法的 JSON 字符串。
注意事项
1. 设置
2. 用户传入的 system 或 user prompt 中必须含有
3. 需要合理设置
4. 在使用 JSON Output 功能时,API 有概率会返回空的 content。我们正在积极优化该问题,您可以尝试修改 prompt 以缓解此类问题。
样例代码
这里展示了使用 JSON Output 功能的完整 Python 代码:
模型将会输出:
via DeepSeek 新闻
在很多场景下,用户需要让模型严格按照 JSON 格式来输出,以实现输出的结构化,便于后续逻辑进行解析。
DeepSeek 提供了 JSON Output 功能,来确保模型输出合法的 JSON 字符串。
注意事项
1. 设置
response_format 参数为 {'type': 'json_object'}。2. 用户传入的 system 或 user prompt 中必须含有
json 字样,并给出希望模型输出的 JSON 格式的样例,以指导模型来输出合法 JSON。3. 需要合理设置
max_tokens 参数,防止 JSON 字符串被中途截断。4. 在使用 JSON Output 功能时,API 有概率会返回空的 content。我们正在积极优化该问题,您可以尝试修改 prompt 以缓解此类问题。
样例代码
这里展示了使用 JSON Output 功能的完整 Python 代码:
import json
from openai import OpenAI
client = OpenAI(
api_key="<your api key>",
base_url="https://api.deepseek.com",
)
system_prompt = """
The user will provide some exam text. Please parse the "question" and "answer" and output them in JSON format.
EXAMPLE INPUT:
Which is the highest mountain in the world? Mount Everest.
EXAMPLE JSON OUTPUT:
{
"question": "Which is the highest mountain in the world?",
"answer": "Mount Everest"
}
"""
user_prompt = "Which is the longest river in the world? The Nile River."
messages = [{"role": "system", "content": system_prompt},
{"role": "user", "content": user_prompt}]
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages,
response_format={
'type': 'json_object'
}
)
print(json.loads(response.choices[0].message.content))
模型将会输出:
{
"question": "Which is the longest river in the world?",
"answer": "The Nile River"
}
via DeepSeek 新闻
上下文硬盘缓存
DeepSeek API 上下文硬盘缓存技术对所有用户默认开启,用户无需修改代码即可享用。
用户的每一个请求都会触发硬盘缓存的构建。若后续请求与之前的请求在前缀上存在重复,则重复部分只需要从缓存中拉取,计入“缓存命中”。
注意:两个请求间,只有重复的前缀部分才能触发“缓存命中”,详间下面的例子。
----------------------
例一:长文本问答
第一次请求
第二次请求
在上例中,两次请求都有相同的前缀,即
----------------------
例二:多轮对话
第一次请求
第二次请求
在上例中,第二次请求可以复用第一次请求开头的
----------------------
例三:使用 Few-shot 学习
在实际应用中,用户可以通过 Few-shot 学习的方式,来提升模型的输出效果。所谓 Few-shot 学习,是指在请求中提供一些示例,让模型学习到特定的模式。由于 Few-shot 一般提供相同的上下文前缀,在硬盘缓存的加持下,Few-shot 的费用显著降低。
第一次请求
第二次请求
在上例中,使用了 4-shots。两次请求只有最后一个问题不一样,第二次请求可以复用第一次请求中前 4 轮对话的内容,这部分会计入“缓存命中”。
----------------------
查看缓存命中情况
在 DeepSeek API 的返回中,我们在
1.
2.
硬盘缓存与输出随机性
硬盘缓存只匹配到用户输入的前缀部分,输出仍然是通过计算推理得到的,仍然受到 temperature 等参数的影响,从而引入随机性。其输出效果与不使用硬盘缓存相同。
其它说明
1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存
2. 缓存系统是“尽力而为”,不保证 100% 缓存命中
3. 缓存构建耗时为秒级。缓存不再使用后会自动被清空,时间一般为几个小时到几天
via DeepSeek 新闻
DeepSeek API 上下文硬盘缓存技术对所有用户默认开启,用户无需修改代码即可享用。
用户的每一个请求都会触发硬盘缓存的构建。若后续请求与之前的请求在前缀上存在重复,则重复部分只需要从缓存中拉取,计入“缓存命中”。
注意:两个请求间,只有重复的前缀部分才能触发“缓存命中”,详间下面的例子。
----------------------
例一:长文本问答
第一次请求
messages: [
{"role": "system", "content": "你是一位资深的财报分析师..."}
{"role": "user", "content": "<财报内容>\n\n请总结一下这份财报的关键信息。"}
]
第二次请求
messages: [
{"role": "system", "content": "你是一位资深的财报分析师..."}
{"role": "user", "content": "<财报内容>\n\n请分析一下这份财报的盈利情况。"}
]
在上例中,两次请求都有相同的前缀,即
system 消息 + user 消息中的 <财报内容>。在第二次请求时,这部分前缀会计入“缓存命中”。----------------------
例二:多轮对话
第一次请求
messages: [
{"role": "system", "content": "你是一位乐于助人的助手"},
{"role": "user", "content": "中国的首都是哪里?"}
]
第二次请求
messages: [
{"role": "system", "content": "你是一位乐于助人的助手"},
{"role": "user", "content": "中国的首都是哪里?"},
{"role": "assistant", "content": "中国的首都是北京。"},
{"role": "user", "content": "美国的首都是哪里?"}
]
在上例中,第二次请求可以复用第一次请求开头的
system 消息和 user 消息,这部分会计入“缓存命中”。----------------------
例三:使用 Few-shot 学习
在实际应用中,用户可以通过 Few-shot 学习的方式,来提升模型的输出效果。所谓 Few-shot 学习,是指在请求中提供一些示例,让模型学习到特定的模式。由于 Few-shot 一般提供相同的上下文前缀,在硬盘缓存的加持下,Few-shot 的费用显著降低。
第一次请求
messages: [
{"role": "system", "content": "你是一位历史学专家,用户将提供一系列问题,你的回答应当简明扼要,并以`Answer:`开头"},
{"role": "user", "content": "请问秦始皇统一六国是在哪一年?"},
{"role": "assistant", "content": "Answer:公元前221年"},
{"role": "user", "content": "请问汉朝的建立者是谁?"},
{"role": "assistant", "content": "Answer:刘邦"},
{"role": "user", "content": "请问唐朝最后一任皇帝是谁"},
{"role": "assistant", "content": "Answer:李柷"},
{"role": "user", "content": "请问明朝的开国皇帝是谁?"},
{"role": "assistant", "content": "Answer:朱元璋"},
{"role": "user", "content": "请问清朝的开国皇帝是谁?"}
]
第二次请求
messages: [
{"role": "system", "content": "你是一位历史学专家,用户将提供一系列问题,你的回答应当简明扼要,并以`Answer:`开头"},
{"role": "user", "content": "请问秦始皇统一六国是在哪一年?"},
{"role": "assistant", "content": "Answer:公元前221年"},
{"role": "user", "content": "请问汉朝的建立者是谁?"},
{"role": "assistant", "content": "Answer:刘邦"},
{"role": "user", "content": "请问唐朝最后一任皇帝是谁"},
{"role": "assistant", "content": "Answer:李柷"},
{"role": "user", "content": "请问明朝的开国皇帝是谁?"},
{"role": "assistant", "content": "Answer:朱元璋"},
{"role": "user", "content": "请问商朝是什么时候灭亡的"},
]
在上例中,使用了 4-shots。两次请求只有最后一个问题不一样,第二次请求可以复用第一次请求中前 4 轮对话的内容,这部分会计入“缓存命中”。
----------------------
查看缓存命中情况
在 DeepSeek API 的返回中,我们在
usage 字段中增加了两个字段,来反映请求的缓存命中情况:1.
prompt_cache_hit_tokens:本次请求的输入中,缓存命中的 tokens 数(0.1 元 / 百万 tokens)2.
prompt_cache_miss_tokens:本次请求的输入中,缓存未命中的 tokens 数(1 元 / 百万 tokens)硬盘缓存与输出随机性
硬盘缓存只匹配到用户输入的前缀部分,输出仍然是通过计算推理得到的,仍然受到 temperature 等参数的影响,从而引入随机性。其输出效果与不使用硬盘缓存相同。
其它说明
1. 缓存系统以 64 tokens 为一个存储单元,不足 64 tokens 的内容不会被缓存
2. 缓存系统是“尽力而为”,不保证 100% 缓存命中
3. 缓存构建耗时为秒级。缓存不再使用后会自动被清空,时间一般为几个小时到几天
via DeepSeek 新闻
为了满足大家对 Anthropic API 生态的使用需求,我们的 API 新增了对 Anthropic API 格式的支持,其
通过简单的配置,即可将 DeepSeek 的能力,接入到 Anthropic API 生态中。
----------------------
将 DeepSeek 模型接入 Claude Code
请参考接入 Coding Agent
通过 Anthropic API 调用 DeepSeek 模型
1. 安装 Anthropic SDK
1. 配置环境变量
1. 调用 API
注意:当您给 DeepSeek 的 Anthropic API 传入不支持的模型名时,API 后端会自动将其映射到
----------------------
Anthropic API 兼容性细节
HTTP Header
Simple Fields
Tool Fields
tools
tool_choice
Message Fields
via DeepSeek 新闻
base_url 为 https://api.deepseek.com/anthropic。通过简单的配置,即可将 DeepSeek 的能力,接入到 Anthropic API 生态中。
----------------------
将 DeepSeek 模型接入 Claude Code
请参考接入 Coding Agent
通过 Anthropic API 调用 DeepSeek 模型
1. 安装 Anthropic SDK
pip install anthropic
1. 配置环境变量
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_API_KEY=${YOUR_API_KEY}
1. 调用 API
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model="deepseek-v4-pro",
max_tokens=1000,
system="You are a helpful assistant.",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "Hi, how are you?"
}
]
}
]
)
print(message.content)
注意:当您给 DeepSeek 的 Anthropic API 传入不支持的模型名时,API 后端会自动将其映射到
deepseek-v4-flash 模型。----------------------
Anthropic API 兼容性细节
HTTP Header
Simple Fields
Tool Fields
tools
tool_choice
Message Fields
via DeepSeek 新闻
近日,Soul AI Lab 宣布正式开源业内首个拥有14亿参数的实时数字人生成模型 ——SoulXFlashTalk。这个模型的特别之处在于,它能够实现亚秒级延迟和每秒32帧的高帧率,为行业提供了一套完整的实时交互解决方案。
SoulXFlashTalk 的开源意味着开发者将可以轻松访问相关的项目页面、技术报告、源代码和模型权重,形成一个全面开放的体系。这一举措不仅能有效降低行业内的研发门槛,也将为更多的创新项目提供基础支持。值得一提的是,早在去年10月,Soul 便已经开源了语音合成模型 SoulXPodcast,此次的开源标志着 Soul 在 “语音 + 视觉” 双模态开源矩阵的布局上又迈出了重要一步。
Soul 的开源战略并不仅限于技术的共享,更是希望通过开放的方式,促进 AI 生态的共同发展。公司表示,未来将继续坚持开源路线,开放更多 AI 技术成果,从而推动 AI 与社交领域的创新与融合。
随着 Soul 在多模态 AI 生态布局的不断完善,业内专家预测,这将为社交网络、在线教育、虚拟现实等多个行业带来颠覆性的变化。可以预见,Soul 的努力将为未来的数字交互体验设定新的标杆,让我们拭目以待。
划重点:
🌟 Soul AI Lab 推出14B 参数的实时数字人生成模型 SoulXFlashTalk,具备快速响应能力和高帧率。
🚀 开源带来项目页面、技术报告、源代码及模型权重,降低研发门槛,鼓励更多创新。
🤝 Soul 将继续推进开源战略,推动 AI 与社交创新发展,构建多模态 AI 生态。
via AI新闻资讯 (author: AI Base)
特斯拉宣布车载语音接入豆包
在全球车载 AI 市场中,中国被认为是最活跃的地区之一。近日,特斯拉宣布其车载语音服务将接入字节跳动旗下的豆包大模型,标志着该公司在中国市场的一次重要更新。此次合作由 DeepSeekChat 提供 AI 互动功能,采用双模型落地方案,进一步推动了车载 AI 技术的本土化进程。
早在 2025 年 8 月,特斯拉就与火山引擎达成了合作,而此次接入豆包大模型无疑是其在中国市场上的一次重磅举措。随着特斯拉车机语音大模型服务的备案完成,意味着特斯拉的车载语音助手将迎来全新的升级。这不仅是特斯拉首次全面拥抱中国本土 AI 技术,也标志着车载 AI 竞争正向区域深度定制转变。
这一变化将极大加速国产 AI 大模型在车载领域的商业化进程,进一步重塑中国车载 AI 行业的格局。在国内自主车企、科技巨头以及 AI 创业公司共同推动下,车载 AI 技术正在迅速发展,呈现出 “自研 + 跨界合作” 的双路径特征。中国市场的快速发展为全球车载 AI 行业提供了新的机遇,同时也促使国际品牌加速与本土企业的合作。
总的来说,特斯拉的此次举动不仅是对中国市场的重视,也为整个车载 AI 行业带来了新的思路和动力。未来,随着技术的不断迭代和市场需求的增长,我们可以期待更多创新的车载 AI 应用出现在消费者面前。
划重点:
🌟 特斯拉与字节跳动旗下豆包大模型的合作标志着车载 AI 的重大更新。
🚗 此次接入将加速国产 AI 技术在车载领域的商业化进程。
🤝 行业内自主车企、科技巨头与 AI 创业公司共同推动车载 AI 技术发展。
via AI新闻资讯 (author: AI Base)
在全球车载 AI 市场中,中国被认为是最活跃的地区之一。近日,特斯拉宣布其车载语音服务将接入字节跳动旗下的豆包大模型,标志着该公司在中国市场的一次重要更新。此次合作由 DeepSeekChat 提供 AI 互动功能,采用双模型落地方案,进一步推动了车载 AI 技术的本土化进程。
早在 2025 年 8 月,特斯拉就与火山引擎达成了合作,而此次接入豆包大模型无疑是其在中国市场上的一次重磅举措。随着特斯拉车机语音大模型服务的备案完成,意味着特斯拉的车载语音助手将迎来全新的升级。这不仅是特斯拉首次全面拥抱中国本土 AI 技术,也标志着车载 AI 竞争正向区域深度定制转变。
这一变化将极大加速国产 AI 大模型在车载领域的商业化进程,进一步重塑中国车载 AI 行业的格局。在国内自主车企、科技巨头以及 AI 创业公司共同推动下,车载 AI 技术正在迅速发展,呈现出 “自研 + 跨界合作” 的双路径特征。中国市场的快速发展为全球车载 AI 行业提供了新的机遇,同时也促使国际品牌加速与本土企业的合作。
总的来说,特斯拉的此次举动不仅是对中国市场的重视,也为整个车载 AI 行业带来了新的思路和动力。未来,随着技术的不断迭代和市场需求的增长,我们可以期待更多创新的车载 AI 应用出现在消费者面前。
划重点:
🌟 特斯拉与字节跳动旗下豆包大模型的合作标志着车载 AI 的重大更新。
🚗 此次接入将加速国产 AI 技术在车载领域的商业化进程。
🤝 行业内自主车企、科技巨头与 AI 创业公司共同推动车载 AI 技术发展。
via AI新闻资讯 (author: AI Base)
近日,Anthropic 公司推出的 Claude Mythos AI 模型经历了一场尴尬的安全事件。该模型因其卓越的网络安全能力而被认为不适合公开发布,但却在不久前被一小群未经授权的用户获取。根据《彭博社》的报道,自 Anthropic 宣布将向少数公司提供该模型进行测试以来,黑客就已经获得了对 Mythos 的访问权限。此事件令一向注重 AI 安全的 Anthropic 面临严峻挑战。
技术层面上,这次 Mythos 的入侵显得相当简单。据报道,黑客组通过对 Mythos 的在线位置进行 “有根据的猜测”,结合 Anthropic 其他模型在 Mercor 公司泄露的信息,以及其中一名成员通过评估 Anthropic 模型的合同工作获得的内部知识,成功入侵了 Mythos。这个事件并非源于复杂的技术攻击,而是基于一些内部信息和运气的结合。
安全漏洞是难以避免的,Mercor 公司泄露的信息使得黑客得以猜测 Mythos 的具体位置。来自英国皇家联合服务研究所(RUSI)的研究员 Pia Hüsch 表示,没有任何公司能做到完全安全,而人类常常是最薄弱的环节。虽然此事件似乎有些运气成分,但没有造成严重后果。
Anthropic 未能预见到这种 “完全可以想象” 的失败,然而,这次事件也为科技公司敲响了警钟,提醒他们在面对潜在风险时必须保持高度警觉,以防类似事件再次发生。
划重点:
- 🔒 Anthropic 的 Mythos 模型因其强大的网络安全能力而不适合公开发布,却被黑客成功入侵。
- 🕵️♂️ 黑客通过简单的猜测和内部信息获得了对 Mythos 的访问权限,显示出安全漏洞的风险。
- ⚠️ 专家指出,科技公司需时刻保持警惕,避免类似安全事件的发生。
via AI新闻资讯 (author: AI Base)
微软公司在其 51 年的历史中首次为部分美国员工推出了一项一次性的自愿退休计划,此举与人工智能的快速发展和持续的科技裁员潮密切相关。根据周四发布的一份公司备忘录,符合条件的员工包括在公司工作多年且年龄与工龄相加达到 70 岁或以上的高管及以下级别员工。这大约占微软在美国员工总数的 7%,预计有 8750 名员工符合资格。
符合条件的员工及其经理将于 5 月 7 日收到通知,并有 30 天的时间作出回应。需要注意的是,拥有销售激励计划的员工不能参与此次计划。微软首席人事官艾米・科尔曼在备忘录中表示,该计划旨在为长期服务的员工提供一个选择,让他们能够在自己决定的时机,以公司给予的丰厚支持,迈出人生的新一步。
科尔曼还提到了微软薪酬体系的变化,决定将薪酬等级从九个减少到五个,并将股票奖励与奖金分开,使管理层可以更加灵活地利用股票奖励长期贡献突出的员工。她表示:“这样的做法可以让管理者更加灵活地有效认可高绩效员工。”
与此同时,科技行业的裁员潮依然在继续。虽然自愿退休计划在传统制造业和电信行业较为常见,但科技巨头们通常更倾向于通过裁员、更加严格的绩效评估和回归办公室政策来精简员工。去年,微软裁员超过 15000 人,其中包括 7 月份裁减的 9000 名员工。此外,Meta 本周也宣布将进行新一轮裁员,计划裁减多达 8000 个职位。亚马逊则在 1 月宣布裁减 16000 名员工。许多公司将其裁员归因于日益增加的人工智能发展计划。
划重点:
💼 微软首次推出自愿退休计划,预计有 8750 名员工符合条件。
📉 科技行业裁员潮持续,微软去年裁员超过 15000 人。
🤖 人工智能发展加速,成为公司裁员及调整的重要因素。
via AI新闻资讯 (author: AI Base)
软银集团要改造工厂为数据中心生产电池
软银集团旗下移动通信部门欲进行一次雄心勃勃的尝试,计划将其大阪工厂的一部分改造为日本最大的大型电池生产线之一,以便为自家的人工智能数据中心供电。知情人士称,软银公司的目标是在未来五年内让该生产线投产。软银高管曾考虑将该堺市工厂用于多种用途,包括机器人制造,最终决定进军能源领域。软银是全球AI领域最坚定的支持者之一,已承诺投入数千亿美元投资数据中心、云服务以及OpenAI等创业公司。软银公司CEO宫川润一预计将在下月公布新五年商业计划时宣布这一电池项目。尽管计划细节仍在敲定中,但孙正义已对此倡议表示赞同。该决定尚需获得软银公司董事会批准。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
软银集团旗下移动通信部门欲进行一次雄心勃勃的尝试,计划将其大阪工厂的一部分改造为日本最大的大型电池生产线之一,以便为自家的人工智能数据中心供电。知情人士称,软银公司的目标是在未来五年内让该生产线投产。软银高管曾考虑将该堺市工厂用于多种用途,包括机器人制造,最终决定进军能源领域。软银是全球AI领域最坚定的支持者之一,已承诺投入数千亿美元投资数据中心、云服务以及OpenAI等创业公司。软银公司CEO宫川润一预计将在下月公布新五年商业计划时宣布这一电池项目。尽管计划细节仍在敲定中,但孙正义已对此倡议表示赞同。该决定尚需获得软银公司董事会批准。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
据国外媒体报道,长期坚持自有资金研发的AI独角兽DeepSeek近日被曝开启首次对外融资,目标估值超过200亿美元。据悉,互联网巨头腾讯与阿里巴巴均在接洽中。
尽管DeepSeek此前由创始人梁文锋通过其量化交易公司资金支持,并无迫切的外部资本需求,但此次战略动作的核心指向人才激励与留存。由于DeepSeek模型训练团队核心成员如R1论文作者郭达雅、资深研究员Wang Bingxuan近期相继跳槽至字节跳动与腾讯,公司亟需通过外部融资迅速推高估值,从而放大员工持有的股票期权价值,以抗衡科技巨头及高估值初创同行的抢人攻势。
据知情人士透露,本次融资金额预计仅为数亿美元,具有较强的象征意义。若融资协议未能达成,梁文锋亦在考虑通过股票回购或基于业绩的估值调整等方案来安抚研究人员。值得注意的是,DeepSeek相对封闭的财务数据与缺乏明确商业模式的现状,仍是吸引纯财务投资者的挑战。行业普遍认为,对于追求协同效应的战略投资者而言,提供底层算力支持与云基础设施的合作伙伴将是最理想的入局者。
在全球大模型竞争步入“人才溢价”时代的背景下,DeepSeek的估值飞跃折射出顶级AI实验室在理想主义管理模式与残酷市场竞争间的博弈。此举不仅关乎其科研梯队的稳定性,更预示着国内通用人工智能领域的估值体系正在向硅谷顶尖水平靠拢。
via AI新闻资讯 (author: AI Base)
分析者质疑自建订阅验证机制:终身订阅的“终身”由谁定义?
昨晚,某知名软件突发服务器故障,导致正常订阅用户无法正常使用软件的本地服务。某分析者在 GitHub 发布了一份开源分析项目对此类 App 订阅验证机制进行技术性深度探讨 并向频道投稿,我们总结摘要如下:
报告通过逆向工程还原了某软件的订阅鉴权架构:
报告中最具争议的发现是:二进制中硬编码了逻辑——“连续验证失败 N 次,清除授权缓存”,意味着一旦自建服务器不可用,应用将主动撤销本地订阅状态,用户的终身订阅(_canPurchaseLifeTime)也将随之失效。
分析者观点认为,苹果 App Store 的内购凭证本身已可在本地验证,当服务商停止运营时,依赖自建服务器的架构将使已付费用户——尤其是终身订阅用户——面临无法恢复的权益损失,且无任何托底机制。
分析者希望我们传达以下观点:当用户购买了“终身订阅”或“永久解锁”服务时,这个“终身”究竟是指用户的生命周期,还是应用服务器的生命周期?
Github
🌸在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
昨晚,某知名软件突发服务器故障,导致正常订阅用户无法正常使用软件的本地服务。某分析者在 GitHub 发布了一份开源分析项目对此类 App 订阅验证机制进行技术性深度探讨 并向频道投稿,我们总结摘要如下:
报告通过逆向工程还原了某软件的订阅鉴权架构:
该应用采用”服务器为主、StoreKit 2 为辅”的混合验证模式。用户的订阅状态(isSubscribed、isEarlyBird 等字段)由开发者自建服务器统一存储与下发,本地 WCDB 数据库与 Keychain 仅作为服务器状态的缓存副本。
报告中最具争议的发现是:二进制中硬编码了逻辑——“连续验证失败 N 次,清除授权缓存”,意味着一旦自建服务器不可用,应用将主动撤销本地订阅状态,用户的终身订阅(_canPurchaseLifeTime)也将随之失效。
分析者观点认为,苹果 App Store 的内购凭证本身已可在本地验证,当服务商停止运营时,依赖自建服务器的架构将使已付费用户——尤其是终身订阅用户——面临无法恢复的权益损失,且无任何托底机制。
分析者希望我们传达以下观点:当用户购买了“终身订阅”或“永久解锁”服务时,这个“终身”究竟是指用户的生命周期,还是应用服务器的生命周期?
该投稿由分析者本人提交相关材料后,编辑总结技术实现后排版,相关观点由社区发出,我们不做任何主观性评论,欢迎其他观点的讨论投稿。
Github
🌸在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
英伟达 CEO 黄仁勋推动全员使用 OpenAI Codex 编程工具
近日,英伟达首席执行官黄仁勋通过社交媒体向 OpenAI 首席执行官萨姆・奥特曼发送了一封电邮,分享了他对公司员工使用 OpenAI Codex 编程工具的号召。黄仁勋在邮件中提到,基于最新的 GPT-5.5 技术,OpenAI Cod 现已向英伟达开放。
他强调英伟达 10000 名员工,涵盖了工程、产品、法务、市场营销、财务、销售、人力资源及开发项目等各个部门,均已提前体验了这一工具,并取得了显著成果。
黄仁勋信中鼓全体员工使用 Codex,指出这款工具不仅适用于软件开发团队,而是适合所有员工。Codex 被视为一种 “智能队友”,能够帮助员工提升工作效率,实现快、更智能工作方式。他,Codex 使用将为们提供超以往的能力为了帮助员工好地掌 Codex,伟达与 AI 团队共同创建一个 Codex 实验室,计划在未来几周内举办一系列线上研讨会。这些研讨会旨在为员工们提供入门学习的机会,以便他们更好地理解和利用这项新技术。
黄仁勋的信中还提到,随着人工智能技术的发展,我们正在迈入一个全新的时代,鼓励大家共同迎接这个快速发展的光速时代。通过使用 Codex,英伟达希望能在行业内继续保持领先地位,为员工创造更大的价值。
via AI新闻资讯 (author: AI Base)
近日,英伟达首席执行官黄仁勋通过社交媒体向 OpenAI 首席执行官萨姆・奥特曼发送了一封电邮,分享了他对公司员工使用 OpenAI Codex 编程工具的号召。黄仁勋在邮件中提到,基于最新的 GPT-5.5 技术,OpenAI Cod 现已向英伟达开放。
他强调英伟达 10000 名员工,涵盖了工程、产品、法务、市场营销、财务、销售、人力资源及开发项目等各个部门,均已提前体验了这一工具,并取得了显著成果。
黄仁勋信中鼓全体员工使用 Codex,指出这款工具不仅适用于软件开发团队,而是适合所有员工。Codex 被视为一种 “智能队友”,能够帮助员工提升工作效率,实现快、更智能工作方式。他,Codex 使用将为们提供超以往的能力为了帮助员工好地掌 Codex,伟达与 AI 团队共同创建一个 Codex 实验室,计划在未来几周内举办一系列线上研讨会。这些研讨会旨在为员工们提供入门学习的机会,以便他们更好地理解和利用这项新技术。
黄仁勋的信中还提到,随着人工智能技术的发展,我们正在迈入一个全新的时代,鼓励大家共同迎接这个快速发展的光速时代。通过使用 Codex,英伟达希望能在行业内继续保持领先地位,为员工创造更大的价值。
划重点:
🌟 OpenAI Codex 工具已向英伟达全体员工开放,基于最新的 GPT-5.5 技术。
👥 黄仁勋强调,Codex 不仅适用于软件团队,所有员工均可受益于这一智能工具。
📅 英伟达将举办线上研讨会,帮助员工学习和使用 Codex,推动公司向人工智能时代迈进。
via AI新闻资讯 (author: AI Base)
豆神教育与微软 Azure 携手打造 AI 短剧平台
在刚刚结束的 Microsoft AI Tour 年度盛会上,豆神教育作为赞助商之一,隆重推出了其全新研发的 “豆神 AI 短剧平台”。这一平台的亮相不仅吸引了与会者的目光,更标志着人工智能在内容创作领域的又一次重要突破。
豆神 AI 短剧平台基于多模态 AI 架构,融合了文本理解、图像生成、视频生成以及智能配音等多项尖端技术。其强大的功能涵盖了从剧本创作、分镜拆解到角色设定,最终实现视频合成与成片输出的各个环节。这样的综合能力,不仅为内容创作者提供了便利,也为教育领域的知识传播、情境化教学内容及文化类内容的生成开辟了新的路径。
具体来说,这一平台的应用场景非常广泛。教育工作者可以利用其生成的短剧内容进行生动的知识讲解,使学生在轻松愉快的氛围中学习;同时,内容创作者、MCN 机构和企业品牌都能借助这一工具满足日益增长的内容生产需求。更值得一提的是,豆神 AI 短剧平台已正式在 Microsoft Marketplace 上架,为全球企业客户提供 SaaS 服务,这一举措将进一步推动其在国际市场的扩展。
业内分析人士指出,豆神教育此次与微软 Azure 的合作,展示了其持续推动 AI 技术向内容创作领域延伸的决心。随着人工智能技术的不断进步,豆神教育的 AI 产品将不仅局限于教育领域,而是向更广泛的商业化内容生产工具拓展。这无疑将为内容产业带来新的活力与可能性。
随着 AI 技术的快速发展,内容创作的门槛正在逐渐降低,未来我们或许能够看到更多精彩的 AI 生成短剧,开启一场全新的视觉盛宴。
划重点:
🌟 豆神教育与微软 Azure 联合推出的 AI 短剧平台,集成了文本、图像和视频生成等多项技术。
🎓 该平台广泛应用于教育、文化内容生成,满足内容创作者和企业的多样化需求。
🌍 豆神 AI 短剧平台已在 Microsoft Marketplace 上架,开启全球 SaaS 服务的新篇章。
via AI新闻资讯 (author: AI Base)
在刚刚结束的 Microsoft AI Tour 年度盛会上,豆神教育作为赞助商之一,隆重推出了其全新研发的 “豆神 AI 短剧平台”。这一平台的亮相不仅吸引了与会者的目光,更标志着人工智能在内容创作领域的又一次重要突破。
豆神 AI 短剧平台基于多模态 AI 架构,融合了文本理解、图像生成、视频生成以及智能配音等多项尖端技术。其强大的功能涵盖了从剧本创作、分镜拆解到角色设定,最终实现视频合成与成片输出的各个环节。这样的综合能力,不仅为内容创作者提供了便利,也为教育领域的知识传播、情境化教学内容及文化类内容的生成开辟了新的路径。
具体来说,这一平台的应用场景非常广泛。教育工作者可以利用其生成的短剧内容进行生动的知识讲解,使学生在轻松愉快的氛围中学习;同时,内容创作者、MCN 机构和企业品牌都能借助这一工具满足日益增长的内容生产需求。更值得一提的是,豆神 AI 短剧平台已正式在 Microsoft Marketplace 上架,为全球企业客户提供 SaaS 服务,这一举措将进一步推动其在国际市场的扩展。
业内分析人士指出,豆神教育此次与微软 Azure 的合作,展示了其持续推动 AI 技术向内容创作领域延伸的决心。随着人工智能技术的不断进步,豆神教育的 AI 产品将不仅局限于教育领域,而是向更广泛的商业化内容生产工具拓展。这无疑将为内容产业带来新的活力与可能性。
随着 AI 技术的快速发展,内容创作的门槛正在逐渐降低,未来我们或许能够看到更多精彩的 AI 生成短剧,开启一场全新的视觉盛宴。
划重点:
🌟 豆神教育与微软 Azure 联合推出的 AI 短剧平台,集成了文本、图像和视频生成等多项技术。
🎓 该平台广泛应用于教育、文化内容生成,满足内容创作者和企业的多样化需求。
🌍 豆神 AI 短剧平台已在 Microsoft Marketplace 上架,开启全球 SaaS 服务的新篇章。
via AI新闻资讯 (author: AI Base)
腾讯发布并开源全新 AI 大模型混元 Hy3 preview
在腾讯最新的人才引进和组织架构调整之后,4 月 23 日,腾讯正式发布并开源了其全新 AI 大模型 —— 混元 Hy3 preview。这一模型被称为 “混元重建后训练的第一个模型”,也是迄今为止混元系列中最智能的。该模型的升级方向涵盖了复杂推理、指令遵循、上下文学习、代码处理以及智能体等多个领域。
混元 Hy3 preview 是一种结合了快思考与慢思考的混合专家模型,拥有 2950 亿个参数,其中激活参数达到 210 亿。它的最大上下文支持长度为 256K,意味着它能处理更长的文本,理解和生成内容的能力大幅提升。这使得 Hy3 在处理复杂问题时,能够更有效地给出答案。
目前,Hy3 preview 已经在多个腾讯平台上实现首发,包括腾讯云、元宝、ima、CodeBuddy、WorkBuddy、QQ、QQ 浏览器、腾讯文档及腾讯乐享等。未来,该模型还将逐步上线于腾讯的微信公众号、和平精英、腾讯新闻、腾讯自选股、腾讯客服以及微信读书等多款产品中。腾讯表示,混元 Hy3 不仅是一款技术工具,更是提升用户体验的利器,将带来更加智能的服务。
腾讯在 AI 领域的这一重要进展,标志着公司在人工智能技术上的进一步探索和应用,力求为用户提供更加高效、智能的交互体验。随着技术的不断进步,未来的 AI 将越来越贴近我们的生活,改变我们工作和学习的方式。
划重点:
🌟 ** 腾讯推出新一代 AI 大模型 Hy3 preview,标志着智能化服务的新进展。**
🤖 ** 该模型具备 2950 亿个参数,能处理更复杂的任务,提升用户体验。**
📱 **Hy3 preview 已在多个腾讯平台上线,未来将覆盖更多产品和服务。**
via AI新闻资讯 (author: AI Base)
在腾讯最新的人才引进和组织架构调整之后,4 月 23 日,腾讯正式发布并开源了其全新 AI 大模型 —— 混元 Hy3 preview。这一模型被称为 “混元重建后训练的第一个模型”,也是迄今为止混元系列中最智能的。该模型的升级方向涵盖了复杂推理、指令遵循、上下文学习、代码处理以及智能体等多个领域。
混元 Hy3 preview 是一种结合了快思考与慢思考的混合专家模型,拥有 2950 亿个参数,其中激活参数达到 210 亿。它的最大上下文支持长度为 256K,意味着它能处理更长的文本,理解和生成内容的能力大幅提升。这使得 Hy3 在处理复杂问题时,能够更有效地给出答案。
目前,Hy3 preview 已经在多个腾讯平台上实现首发,包括腾讯云、元宝、ima、CodeBuddy、WorkBuddy、QQ、QQ 浏览器、腾讯文档及腾讯乐享等。未来,该模型还将逐步上线于腾讯的微信公众号、和平精英、腾讯新闻、腾讯自选股、腾讯客服以及微信读书等多款产品中。腾讯表示,混元 Hy3 不仅是一款技术工具,更是提升用户体验的利器,将带来更加智能的服务。
腾讯在 AI 领域的这一重要进展,标志着公司在人工智能技术上的进一步探索和应用,力求为用户提供更加高效、智能的交互体验。随着技术的不断进步,未来的 AI 将越来越贴近我们的生活,改变我们工作和学习的方式。
划重点:
🌟 ** 腾讯推出新一代 AI 大模型 Hy3 preview,标志着智能化服务的新进展。**
🤖 ** 该模型具备 2950 亿个参数,能处理更复杂的任务,提升用户体验。**
📱 **Hy3 preview 已在多个腾讯平台上线,未来将覆盖更多产品和服务。**
via AI新闻资讯 (author: AI Base)
Meta收集员工日常行为数据用于训练大模型 隐私边界再受挑战
近日,Meta 向全体员工发出了一项重要通知,推出了一项名为 “模型能力倡议”(Model Capability Initiative,简称 MCI)的新计划。该计划旨在利用员工的工作行为数据,以加速大语言模型的训练。
根据通知,Meta CEO 马克・扎克伯格和首席 AI 官亚历山大・王共同宣布,新的 AI 大语言模型 “Muse Spark” 正在不断进步,但为了进一步加速这一进程,Meta 决定 “充分利用我们的日常工作”。在这一计划中,Meta 将会收集员工的鼠标点击、键盘输入以及屏幕内容等数据,并将这些信息用于训练其人工智能模型。
尽管 AI 在研究和编程领域表现出色,但仍然缺乏对人类如何使用计算机的基本了解,比如如何选择下拉菜单或使用快捷键。Meta 希望通过收集员工的真实使用数据,帮助 AI 更好地理解人类的工作习惯,从而提升其智能水平。
这项举措标志着 Meta 在人工智能领域的又一次大胆尝试,旨在将人类的工作经验转化为机器学习的有力素材。随着 AI 技术的不断成熟,如何有效利用人类的行为数据来训练智能体,将成为未来科技发展的一个重要方向。
值得注意的是,这一计划也引发了一些关于隐私和数据安全的讨论。员工们对于 Meta 将如何处理和保护这些数据充满关注,尤其是在数据泄露和滥用问题频发的当下。Meta 表示,他们会采取必要措施确保员工数据的安全性和隐私保护。
总之,Meta 的这一新举措将如何改变人工智能的发展路径,以及其对员工的实际影响,仍需时间来验证。但可以确定的是,Meta 正以一种全新的方式探索人类与 AI 之间的关系,未来的工作和生活或许会因此而发生深刻的变革。
划重点:
🔍 MCI 计划:Meta 推出 “模型能力倡议”,收集员工工作行为数据以训练 AI 模型。
💻 新模型:新大语言模型 “Muse Spark” 旨在通过人类的工作经验提升智能水平。
🔒 隐私关注:员工对数据安全和隐私保护表示关切,Meta 承诺采取措施保障数据安全。
via AI新闻资讯 (author: AI Base)
近日,Meta 向全体员工发出了一项重要通知,推出了一项名为 “模型能力倡议”(Model Capability Initiative,简称 MCI)的新计划。该计划旨在利用员工的工作行为数据,以加速大语言模型的训练。
根据通知,Meta CEO 马克・扎克伯格和首席 AI 官亚历山大・王共同宣布,新的 AI 大语言模型 “Muse Spark” 正在不断进步,但为了进一步加速这一进程,Meta 决定 “充分利用我们的日常工作”。在这一计划中,Meta 将会收集员工的鼠标点击、键盘输入以及屏幕内容等数据,并将这些信息用于训练其人工智能模型。
尽管 AI 在研究和编程领域表现出色,但仍然缺乏对人类如何使用计算机的基本了解,比如如何选择下拉菜单或使用快捷键。Meta 希望通过收集员工的真实使用数据,帮助 AI 更好地理解人类的工作习惯,从而提升其智能水平。
这项举措标志着 Meta 在人工智能领域的又一次大胆尝试,旨在将人类的工作经验转化为机器学习的有力素材。随着 AI 技术的不断成熟,如何有效利用人类的行为数据来训练智能体,将成为未来科技发展的一个重要方向。
值得注意的是,这一计划也引发了一些关于隐私和数据安全的讨论。员工们对于 Meta 将如何处理和保护这些数据充满关注,尤其是在数据泄露和滥用问题频发的当下。Meta 表示,他们会采取必要措施确保员工数据的安全性和隐私保护。
总之,Meta 的这一新举措将如何改变人工智能的发展路径,以及其对员工的实际影响,仍需时间来验证。但可以确定的是,Meta 正以一种全新的方式探索人类与 AI 之间的关系,未来的工作和生活或许会因此而发生深刻的变革。
划重点:
🔍 MCI 计划:Meta 推出 “模型能力倡议”,收集员工工作行为数据以训练 AI 模型。
💻 新模型:新大语言模型 “Muse Spark” 旨在通过人类的工作经验提升智能水平。
🔒 隐私关注:员工对数据安全和隐私保护表示关切,Meta 承诺采取措施保障数据安全。
via AI新闻资讯 (author: AI Base)
平安医疗 AI 大模型横扫全球,获全球医疗AI最高评分
近日,中国平安旗下的平安科技在全球医疗 AI 评测中大放异彩,其研发的 “医疗大模型 3.5” 以 57.27 分的高分荣登全球第一,超越 Meta、OpenAI 等行业巨头。这一成绩在由 OpenAI 发布的 HealthBench Hard 评测中取得,标志着平安在医疗 AI 领域的领先地位。
这项评测由来自 60 个国家的 262 名医生共同构建,包含 5000 组高仿真医疗对话,特别是高难度子集 HealthBench Hard,旨在测试模型在复杂临床场景下的推理能力。平安医疗大模型的成功,不仅在于其高分,更在于其背后的研发理念:结合真实临床场景,提升 AI 在医疗决策中的应用能力。
平安科技的医疗 AI 大模型,突破了传统模型的局限,重点在于如何从信息获取和健康咨询,发展到复杂病种的辅助决策和多学科协同诊疗。这一转变使得 AI 更接近临床实际,提高了模型的可用性和准确度。
为了应对医疗推理中的复杂性,平安的研发团队采用了三阶段递进训练策略,逐步构建出具临床逻辑的知识体系,并实现长链和跨学科推理能力的提升。此外,团队还自研了一款全链路幻觉控制引擎,降低了推理过程中的风险,提高了模型的稳定性。
平安医疗 AI 还推出了 “平安灵眸” 等多款产品,覆盖了从筛查到管理、治疗、康复的完整医疗链路。目前,“平安灵眸” 已在全国 1500 家基层医疗机构应用,帮助 30 万客户实现疾病早筛。通过 “健康管家”,平安构建了国内最大的慢病管理社区,有效提升了患者的依从性,推动了健康管理的长效机制。
在多学科诊疗(MDT)方面,平安也通过 AI-MDT Pro 智能会诊系统,将顶级专家的诊疗能力下沉,让更多患者受益。这一系统已在多家医院落地,为肿瘤患者提供全流程的诊疗建议,有望提升患者的生存率。
平安科技表示,未来将继续深化 “综合金融 + 医疗养老” 战略,推动 AI 技术在各个业务场景中的应用,以更好地服务社会和客户。
划重点:
🌟 平安医疗 AI 大模型在全球评测中夺冠,展示其行业领导力!
💡 通过真实临床场景训练,模型实现精准医疗决策和协同诊疗!
🏥 新产品推出,推动医疗服务全链路智能化,改善患者体验!
via AI新闻资讯 (author: AI Base)
近日,中国平安旗下的平安科技在全球医疗 AI 评测中大放异彩,其研发的 “医疗大模型 3.5” 以 57.27 分的高分荣登全球第一,超越 Meta、OpenAI 等行业巨头。这一成绩在由 OpenAI 发布的 HealthBench Hard 评测中取得,标志着平安在医疗 AI 领域的领先地位。
这项评测由来自 60 个国家的 262 名医生共同构建,包含 5000 组高仿真医疗对话,特别是高难度子集 HealthBench Hard,旨在测试模型在复杂临床场景下的推理能力。平安医疗大模型的成功,不仅在于其高分,更在于其背后的研发理念:结合真实临床场景,提升 AI 在医疗决策中的应用能力。
平安科技的医疗 AI 大模型,突破了传统模型的局限,重点在于如何从信息获取和健康咨询,发展到复杂病种的辅助决策和多学科协同诊疗。这一转变使得 AI 更接近临床实际,提高了模型的可用性和准确度。
为了应对医疗推理中的复杂性,平安的研发团队采用了三阶段递进训练策略,逐步构建出具临床逻辑的知识体系,并实现长链和跨学科推理能力的提升。此外,团队还自研了一款全链路幻觉控制引擎,降低了推理过程中的风险,提高了模型的稳定性。
平安医疗 AI 还推出了 “平安灵眸” 等多款产品,覆盖了从筛查到管理、治疗、康复的完整医疗链路。目前,“平安灵眸” 已在全国 1500 家基层医疗机构应用,帮助 30 万客户实现疾病早筛。通过 “健康管家”,平安构建了国内最大的慢病管理社区,有效提升了患者的依从性,推动了健康管理的长效机制。
在多学科诊疗(MDT)方面,平安也通过 AI-MDT Pro 智能会诊系统,将顶级专家的诊疗能力下沉,让更多患者受益。这一系统已在多家医院落地,为肿瘤患者提供全流程的诊疗建议,有望提升患者的生存率。
平安科技表示,未来将继续深化 “综合金融 + 医疗养老” 战略,推动 AI 技术在各个业务场景中的应用,以更好地服务社会和客户。
划重点:
🌟 平安医疗 AI 大模型在全球评测中夺冠,展示其行业领导力!
💡 通过真实临床场景训练,模型实现精准医疗决策和协同诊疗!
🏥 新产品推出,推动医疗服务全链路智能化,改善患者体验!
via AI新闻资讯 (author: AI Base)
4月23日,华为正式发布全新一代鸿蒙座舱 HarmonySpace6。这款座舱不仅在舱内感知、智慧交互以及移动影音等多个领域进行了全面升级,还引入了更加智能化的助手小艺,力图将车内的智能体验提升到一个全新的水平。
新一代小艺智能体采用了 MoLA2.0架构,拥有千亿级的参数,通过多模态大模型,成为一款能够实现全场景聊天的 AI 助手。小艺的强大之处在于能够同时处理导航、控车、聊天、生活服务等任务,真正实现 “边聊天边控车”。想要点餐或者调整车速?只需轻松一句话,小艺就能为你解决。
在感知与安全方面,HarmonySpace6推出了业界首款舱内 AI 多模态感知系统 AMS。该系统由多种高精度传感器组成,能够全方位监测乘员的动作和生命体征。这意味着,无论是日常的安全预警,还是在紧急情况下的生命体征监测,华为都力求做到精准无误,为乘客的安全提供了有力保障。
影音体验方面,这款座舱搭载了行业首款双17.2英寸3.4K 大屏,支持智慧分屏功能,副驾乘客可以享受到更大屏幕带来的沉浸式观影体验。与此同时,HUAWEI SOUND 系统也进行了升级,新增了 AI 调音魔方和无麦 K 歌3.0功能,让车内的音乐体验更加丰富。
此外,华为还首发了百万像素彩色智能车灯模组,具备全彩投影和雨雾天气色温调节的功能,进一步增强了行车安全性。作为一项趣味创新,华为推出了 AI 陪伴机器人 “哈蒙蒙”,它可以在车载屏幕上吸附并与乘客对话,为出行增添更多乐趣。
总之,华为的 HarmonySpace6不仅提升了智能化的车载体验,更以其创新的功能为未来智能驾驶奠定了基础。
划重点:
🚗 ** 全新升级的小艺智能体 **:千亿级参数、多模态 AI,支持多任务处理,实现 “边聊边控车”。
🔍 ** 先进的安全感知系统 **:行业首款舱内 AI 多模态感知系统,监测乘员动作和生命体征,确保安全。
🎶 ** 沉浸式影音体验 **:双17.2英寸3.4K 大屏和升级 HUAWEI SOUND,带来影院级的视听享受。
via AI新闻资讯 (author: AI Base)
Meta 账号系统全线升级:一个中心枢纽掌控所有社交与 AI 设备
Meta 公司于本周四正式宣布,其原有的“账号中心”已更名为 Meta 账户(Meta Account),并迎来重大功能重塑。这一动作标志着 Meta 正在打破旗下应用与硬件设备间的壁垒,试图打造一个高度统一的数字身份管理系统。
升级后的 Meta 账户将成为连接 Facebook、Instagram、Threads 等社交平台,以及 AI 智能眼镜、Meta Quest 头显等硬件的中心枢纽。用户只需通过一个控制面板,即可集中管理关联的电子邮件地址和主密码,并能自由选择哪些应用或设备接入该系统。
为了保障这一核心入口的安全,Meta 引入了更为先进的验证手段。用户可以使用通行密钥(Passkeys)、指纹扫描或面部识别等生物识别技术,配合双因素身份验证,为所有关联账号提供多重防护,极大地简化了多平台登录的繁琐流程。
个性化定制与家长监护
尽管系统趋向统一,Meta 依然保留了极高的自主选择权。用户可以为不同设备创建独立的账户,甚至可以选择不使用统一账户以保持登录信息的物理隔离。此外,针对青少年群体,该系统集成了“家庭中心”功能,方便家长直接跨平台监控受监管账户。
值得注意的是,部分特定功能的设置仍将保持独立。例如,WhatsApp 的密码将继续在应用内单独管理,而 Facebook 帖子的可见性等应用专属设置也不会出现在统一的 Meta 账户面板中。Meta 表示,这一升级将在未来一年内分阶段向全球用户推送。
via AI新闻资讯 (author: AI Base)
Meta 公司于本周四正式宣布,其原有的“账号中心”已更名为 Meta 账户(Meta Account),并迎来重大功能重塑。这一动作标志着 Meta 正在打破旗下应用与硬件设备间的壁垒,试图打造一个高度统一的数字身份管理系统。
升级后的 Meta 账户将成为连接 Facebook、Instagram、Threads 等社交平台,以及 AI 智能眼镜、Meta Quest 头显等硬件的中心枢纽。用户只需通过一个控制面板,即可集中管理关联的电子邮件地址和主密码,并能自由选择哪些应用或设备接入该系统。
为了保障这一核心入口的安全,Meta 引入了更为先进的验证手段。用户可以使用通行密钥(Passkeys)、指纹扫描或面部识别等生物识别技术,配合双因素身份验证,为所有关联账号提供多重防护,极大地简化了多平台登录的繁琐流程。
个性化定制与家长监护
尽管系统趋向统一,Meta 依然保留了极高的自主选择权。用户可以为不同设备创建独立的账户,甚至可以选择不使用统一账户以保持登录信息的物理隔离。此外,针对青少年群体,该系统集成了“家庭中心”功能,方便家长直接跨平台监控受监管账户。
值得注意的是,部分特定功能的设置仍将保持独立。例如,WhatsApp 的密码将继续在应用内单独管理,而 Facebook 帖子的可见性等应用专属设置也不会出现在统一的 Meta 账户面板中。Meta 表示,这一升级将在未来一年内分阶段向全球用户推送。
via AI新闻资讯 (author: AI Base)