开云体育

开云APP下载DeepSeek公开成本利润率545%中国两AI公司CEO互撕抄袭AIcom域名要价7亿Hunt Good周报

2025-03-05
浏览次数:
返回列表

  开云体育[永久网址:363050.com]成立于2022年在中国,是华人市场最大的线上娱乐服务供应商而且是亚洲最大的在线娱乐博彩公司之一。包括开云、开云棋牌、开云彩票、开云电竞、开云电子、全球各地赛事、动画直播、视频直播等服务。开云体育,开云体育官方,开云app下载,开云体育靠谱吗,开云官网,欢迎注册体验!阅读周报之前 ,APPSO 想先分享一首歌,希望大家在音乐的陪伴中享受阅读

  硬件配置:所有服务使用 H800 GPU,保持与训练一致的 FP8/BF16 精度

  当然我们实际上没有这么多收入,因为 V3 的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。

  近日,潞晨科技 CEO 尤洋表示,满血版 DeepSeek-R1 每百万 token(输出)定价 16 元,如果每日输出 1000 亿 token,需要约 4000 台搭载 H800 的机器,以目前 H800 的市价或者折旧来计算,每月仅机器成本就达 4.5 亿元,因此企业方可能面临每月 4 亿元的亏损。「用户越多,亏损越多。」

  随后,他也在知乎发文《坑人的硅基流动》,直指硅基流动创始人袁进辉「频繁在朋友圈阴阳他」,并称「硅基流动疑似组织水军长期黑我」。

  尤洋在文中分析了硅基流动网站访问量大增的原因,认为主要得益于春节期间绑上国产芯片的宣传效果和邀请码送代金券的拉人头传播。他质疑硅基流动的代金券承诺与实际现金流之间存在巨大缺口,并对其 API 性能表示怀疑。

  袁进辉迅速在朋友圈回应,为自家团队春节期间的努力辩护,强调「提供稳定服务」无可厚非,并反击称硅基流动曾被潞晨科技抄袭。

  针对抄袭指控,尤洋回应称,实施抄袭的是潞晨科技前 CTO,该人士已离职并加入了袁进辉的公司。随后袁进辉转发了去年橘皮优团队对潞晨科技的指控文章,称潞晨科技「不是一次抄袭,而是多次发生」。

  争论进一步扩大, 被指为抄袭总负责人的潞晨科技前 CTO 方佳瑞也加入论战,称自己是被尤洋「甩锅」,抄袭的代码与他无关,并透露自己是因质疑「诈骗式期权协议」而被赶走。

  并且,袁进辉回应称,「(潞晨)CTO 没加入我们公司,之前加入的是光年之外,后来加入其他大公司了。而且都是他自己犯错甩锅给别人,不是别人的问题。」

  本人昨天情绪太冲动,说了一些让人误解 deepseek infrastructure 团队的话。deepseek infrastructure 团队技术一流并给开源社区做出巨大贡献。本人诚挚道歉,已经删除不当表述,感谢大家提醒。

  据 The Information 报道,资深域名经纪人拉里·菲舍尔正在帮雇主寻求出售备受瞩目的域名,报价高达 1 亿美元(折合人民币 7 亿元)。

  「如果有人想出售顶级域名,他们会找我,」菲舍尔在纽约一家意大利餐厅接受采访时表示,「我有获取最好价格的声誉。」目前域名的所有者保持匿名,仅透露当初购买该域名是因为与自己的缩写相符,而非看好 AI 的发展。

  菲舍尔认为 OpenAI、微软、Google 和 Meta 等科技巨头或加密货币富豪都可能是潜在买家。值得注意的是,目前已知最高域名交易记录为 MicroStrategy 公司 2019 年以 3000 万美元出售的。

  覆盖计算、通信、存储、算法与模型的协同创新,中国 AI 力量正在用开源精神,把曾经需要天价算力的技术,变得人人可用。

  另外,2 月 25 日,据路透社援引三位知情人士的消息称,DeepSeek 正在加速推出 1 月发布的 R1 模型升级版—DeepSeek R2。

  其中两位知情人士表示,DeepSeek原计划在 5 月初发布 R2,但现在希望尽早推出,具体时间尚未透露。该公司表示,希望新模型在编程能力上表现更佳,并能够支持英语以外的多种语言进行推理。

  百度表示,文心大模型 4.5 不仅在基础模型能力上有大幅提升,且具备原生多模态、深度思考等能力。本月早些时候,百度曾发文称,文心大模型 4.5 将在今年 6 月 30 日起正式开源;同时其还宣布,文心一言将于 4 月 1 日 0 时起,全面免费,所有 PC 端和 APP 端用户均可体验文心系列最新模型。

  此外,百度 CEO 李彦宏也在近期的一次财报电话会议中透露,文心大模型 4.5 将会是百度最好的模型,并且其也转变了「模型发展应该保持闭源」的态度,表示从 DeepSeek 的成功中知道了开源的优势。

  近日,据中国围棋协会发布通报显示,2024 年 12 月 15 日,职业棋手秦思玥在参加全国围棋锦标赛(个人)女子组第九轮比赛时,被裁判赛中例行抽检发现携带手机,并在手机上使用人工智能程序。

  通报称,经查看当日赛场视频,听取现场裁判、棋手、工作人员证言,证实秦思玥当天凌晨进入赛场藏匿手机与在比赛过程中作弊,藐视赛场纪律,被询问有关事实时存在隐瞒行为,情节严重。

  中国围棋协会表示,根据《中国围棋协会纪律准则和处罚规定》等相关规定,综合考虑违规事实情节及本人态度,经协会纪律与道德工作委员会研究决定,对秦思玥处以撤销职业段位、取消 2024 年全国围棋锦标赛(个人)成绩的处罚,禁止其参加中国围棋协会及会员单位组织或授权组织的所有围棋赛事和活动 8 年。

  据悉,秦思玥出生于 2006 年,目前 19 周岁,其在 2020 年通过全国围棋定段赛晋级为职业围棋初段,此后在 2024 年升级为职业围棋二段。

  目前,Sora 仅通过单独网页提供服务。Sora 产品负责人 Rohan Sahai 表示,OpenAI 正积极研究如何在 ChatGPT 中引入 Sora功 能,将两款产品结合起来,但未提供具体时间表。

  他指出,最终集成到 ChatGPT 中的 Sora 版本可能不会提供与独立网页应用相同的编辑和拼接功能。

  此外,OpenAI 还在扩展 Sora 的功能范围。自推出以来,公司已经增强了 Sora 的网络体验,创建了更多方式让用户浏览社区生成的视频。Sahai 表示,OpenAI 有意为 Sora 开发独立的移动应用,目前团队正在积极招募移动开发工程师。

  值得注意的是,OpenAI 还计划将 Sora 的生成能力扩展到图像领域。

  虽然 ChatGPT 已经支持由 DALL-E 3 模型提供的图像生成功能,但 Sora 驱动的图像生成器有望创建更加逼真的照片。另外,Sahai 透露 OpenAI 正在开发新版本的 Sora Turbo。

  据 The Information 报道,Meta 正在筹划建造一座 AI 数据中心园区,预计投资金额可能超过 2000 亿美元,这将成为该公司迄今为止最大规模的项目,也将跻身全球最大数据中心之列。

  这座尚未公开报道的新数据中心园区,其规模将是扎克伯格上个月提到的路易斯安那州 AI 数据中心的数倍之巨。虽然 Meta 曾表示路易斯安那州项目将耗资 100 亿美元,但具体包含哪些组件尚不明确。

  据了解,Meta 高管已向数据中心开发商表示,公司计划在路易斯安那州、怀俄明州或德克萨斯州等地建设这一大型园区。本月,高级管理人员已前往考察潜在场地。

  目前尚不清楚 Meta 是自行建设设施,还是与外部开发商签约,或是与 Oracle 或 CoreWeave 等云计算提供商合作建设和运营。Meta 既使用自己的数据中心,也从亚马逊 AWS 和 Oracle 等云提供商租用 AI 服务器。

  一位参与谈判的人士透露,如果扎克伯格在未来改变主意,Meta 不一定需要全额承担建设成本。大型数据中心交易通常分阶段进行,所以 Meta 的协议可能给予其独家权利,但并不强制继续扩大项目规模。

  Meta 可能需要签署长期数据中心租约以确保园区使用权,但不需要承诺购买特定数量的 AI 芯片,而芯片采购是此类项目中最昂贵的部分。

  尽管投入巨大,Meta 内部对于需要多少 AI 芯片来训练和运行其 AI 尚未明确。

  Instagram 负责人 Adam Mosseri 在本月给员工的一份备忘录中表示:「我们可能需要比原先想象的多得多或少得多的计算能力来构建前沿模型。」

  API 价格方面,因 GPT-4.5 计算量极大,成本高昂,相较于 GPT-4o 价格有了较高上涨。

  GPT-4.5 支持联网搜索,并能够处理文件和图片上传,还可以使用 Canvas 来进行写作和编程。不过,目前 GPT-4.5 还不支持多模态功能,如语音模式、视频和屏幕共享。GPT-4.5 主要通过「无监督学习」(就是自己从大量数据中学习)变得更聪明,而不是像 OpenAI o1 或者 DeepSeek R1 那样专注于推理能力。

  Sam Altman 提到,GPT-4.5 不是推理型模型,不会在基准测试中碾压其他模型。在目前曝出的实测中,性能的提升远没有价格大。

  月之暗面旗下 Kimi 的最新模型 k1.6 曝光。据全球动态基准测试平台 LiveCodeBench 显示,k1.6 登上测试榜榜首。

  具体显示,k1.6-high 在多项代码生成基准测试中超越 OpenAI o3-mini、o1 和通义 QwQ-Max 等多款模型。成绩公布后,月之暗面研究员 Flood Sung 在其个人社交账号表示,榜单中的 k1.6 是一个基于 k1.5 持续训练代码能力的特定版本,目前 k1.6 还在不断训练并提升性能。

  此外,月之暗面创始人张予彤也在朋友圈表示,k1.6 还没有发布,但看到 LiveCodeBench 的成绩感到开心,期待智能模型的持续进化。

  Phi-4-multimodal 是一个拥有 56 亿参数的多模态模型,其最大特点是采用了「混合 LoRAs 技术」(Low-Rank Adaptations,低秩适应),能够同时处理语音、视觉和文本信息。

  用户可以在智能手机、汽车等本地设备上运行该模型,或者开发轻量级企业应用,如多语言金融服务应用等。

  另一款新模型 Phi-4-mini 拥有 38 亿参数,基于密集解码器架构,支持处理长达 12.8 万个标记的序列。

  微软表示,尽管体积小巧,该模型在文本任务方面的表现依然优于许多更大的模型,包括推理、数学、编程、指令跟随和函数调用等能力。

  不过,在数学和科学推理、光学字符识别(OCR)以及视觉科学推理方面,该模型的表现已超过了包括 Gemini-2.0-Flash Lite 和 Claude-3.5-Sonnet 在内的多款大模型。

  据了解,Claude 3.7 Sonnet 的独特之处在于它将实时回答和深度思考的能力整合在同一个模型中。用户可以自主选择「推理」功能,让 AI 进行短时间或长时间的深度思考。

  Claude 3.7 Sonnet 已经向所有用户和开发者推出,但只有付费购买 Anthropic 高级服务的用户才能获得完整的推理功能。免费用户则可使用标准版 Claude 3.7 Sonnet。

  在定价方面,Claude 3.7 Sonnet 每百万输入 token 收费 3 美元(约相当于处理 75 万个单词,比《指环王》全系列还多),每百万输出令牌收费 15 美元。

  据《华尔街日报》最新报道,Anthropic 即将敲定一轮高达 35 亿美元的融资,估值将达到 615 亿美元。

  随着 AI 技术的普及,越来越多的 AI 开始执行拨打和接听电话的任务。

  在这种情况下,AI 之间不可避免地需要通过电话进行交流。然而,传统的人类语言通信方式在 AI 之间的对话中存在明显缺陷,比如时间效率低下、语音生成的计算成本高昂,且容易出错。

  针对这些问题,由软件工程师 Boris Starkov 和 Anton Pidkuiko 开发的 Gibberlink 提出了一种新思路——让 AI 从语音级别转移到声音级别协议来相互通信。

  虽然人类可以听到两个 AI 开始使用人类听不懂的「语言」进行沟通,但没有专门设备或软件则无法理解其中包含的信息。

  具体来说,当 AI 与人类交谈时,它会坚持使用常规语音。当检测到另一方也是 AI 代理时,会主动建议切换到声音级协议,如果对方接受这一建议,双方将切换到基于 GGWave 库的声音级协议进行通信。

  整个协议设计有标准化消息格式和严格的数据交换结构,以最大程度降低误解风险和潜在安全漏洞。

  Gibberlink 带来的好处有很多,比如通过避免语音生成环节,Gibberlink 减少了 90% 以上的计算成本,这对于大规模 AI 部署具有重要意义,以及相同信息的传递时间最多可缩短 80 %,大大加快 AI 间的交互速度。

  「市场上许多其他推理模型主要是在数学和竞赛编程上训练的,但它们与现实世界或经济中的任务相关性较低,」Amodei 解释道,「我们训练 Claude 3.7 更多地关注这些现实世界任务。」

  在谈到新模型的具体优势时,Amodei 表示,Claude 3.7 Sonnet 在编程方面比之前的版本有了显著提升,尤其在处理复杂指令和理解文档方面表现更为出色。

  不过,目前 Claude 尚未具备访问互联网的能力,但 Amodei 透露「网页搜索即将到来」。

  并且,他表示 Anthropic 目前正在开发「更大的基础模型」,这些模型「需要更长的时间,有时需要很长时间才能做好」,暗示可能会有 Claude 4 系列在不久的将来推出。

  Amodei 还预测有 70% 到 80% 的可能性,人类将在本十年结束前(可能是 2026 年或 2027 年)获得「大量比人类在几乎所有方面都聪明得多的 AI 系统」。

  对于 AI 对就业市场的影响,Amodei 预计,短期内 AI 将提高程序员的生产力,但在 18 至 24 个月内,可能会开始替代一些低层次工作。

  近日,微软 CEO 萨提亚·纳德拉在一次播客采访中, 分享了一系列观点。

  纳德拉表示,量子计算对探索密集型任务具有独特优势,它只需少量数据就能产出丰富成果。而「如果将量子技术与人工智能结合,用量子计算来生成或合成数据,就能训练出更优秀的AI模型,两者应该结合使用。」

  他认为超大规模市场不会出现赢家通吃的局面,因为企业级买家足够聪明,会需要多个供应商。从微软进入云计算市场的经验看,即使亚马逊已占据市场优势,他们仍然成功打入了这个领域。

  在谈到备受关注的 AGI 话题时,纳德拉表示:「我认为我们现在对 AGI 的概念过度炒作了。」他认为衡量 AGI 真正实现的标准——世界经济能以 10% 的速度快速增长。

  「如果将 AI 革命类比之前的工业革命,那也应该从生产力进步的角度评判结果。技术发展最大的赢家不会是科技公司,而是使用这些技术和资源突破生产力瓶颈的各行各业。」

  对于微软最新推出的 Majorana 1 量子芯片,纳德拉解释道,这是微软 30 年研究历程的重大突破。

  他将其比作「晶体管时刻」,认为这款芯片将是第一款能容纳一百万量子比特的物理芯片。「这意味着我们现在甚至可以可靠地隐藏量子信息,测量它,并且可以制造它。」

  纳德拉预计,到 2027 年或 2028 年,微软可能制造出第一台容错量子计算机。

  OpenA I 首席研究官:未来的 GPT-5 可能会是「许多成果的集大成」。

  对于外界关注的命名问题,Mark Chen 表示,GPT-4.5 符合公司对「可预测扩展范式」的命名规律。

  从 GPT-3 到 GPT-3.5,再到 GPT-4,我们可以预测出训练模型所需的计算量和效率提升能带来什么。这个新模型符合我们对「4.5」版本的预期。

  谈及从 GPT-4 到 GPT-4.5 发布间隔较长的原因,Chen 解释道,这主要是因为 OpenAI 在过去一年半到两年里大力专注于开发推理范式。「我们现在有两个不同的扩展轴:一个是无监督学习,GPT-4.5 是这个轴上的最新实验;另一个是推理。」

  当被问及在当前规模下增加算力和数据是否仍能带来同样的回报时,Chen 坚定地表示:

  「不,我们仍然看到同样的回报。GPT-4.5 是无监督学习范式的下一个点。我们根据之前训练的所有模型预测性能,在这个案例中,整合了扩展机制,达到了下一个数量级的点。」

  在谈到与 DeepSeek 等竞争对手的差异时,Chen 表示,OpenAI 同样重视模型效率优化。

  让模型高效服务与开发核心能力是相对独立的。我们在推理堆栈上做了很多工作,也很重视以低成本服务用户。自从推出 GPT-4 以来,成本已经下降了好几个数量级。

  他透露,OpenAI 在 GPT-4.5 中也探索了专家混合模型及其他架构改进,这些优化适用于 GPT-4、GPT-4.5 和推理模型的效率提升。

搜索