2025全球时空智能大会
5月21-22日 北京
先导片发布,数十位KOL倾情演绎时空智能
邀你一起  探索未来

搜索中心

阿里通义千问正式推出QVQ-Max视觉推理模型的第一版

分享至

去年12月,阿里通义千问推出了QVQ-72B-Preview, 作为一个探索模型,它存在一些不足之处。今天,我们正式推出 QVQ-Max 视觉推理模型的第一版。这一新版本的模型具备强大的多模态处理能力,它不仅能够“看懂”图片和视频里的内容,还能结合这些信息进行分析、推理,甚至给出解决方案。从数学题到生活小问题,从编程代码到艺术创作,QVQ-Max 都表现出了不俗的能力。

通义千问发布新一代端到端旗舰模型Qwen2.5-Omni

分享至

通义千问3月27日宣布发布Qwen2.5-Omni,Qwen模型家族中新一代端到端多模态旗舰模型。该模型专为全方位多模态感知设计,能够无缝处理文本、图像、音频和视频等多种输入形式,并通过实时流式响应同时生成文本与自然语音合成输出。该模型现已在Hugging Face、ModelScope、DashScope和GitHub上开源开放。

阿里通义实验室语音团队负责人鄢志杰离职

分享至

3月14日消息,阿里通义实验室语音团队负责人鄢志杰已于近期离职,离职时间为2月15日,按照以前的P序列比照,其职级为P10。鄢志杰2003年大学本科毕业,升入中科大语音实验室攻读博士学位;2008年获得博士学位后,鄢志杰在微软亚洲研究院语音组担任主管研究员。2015年加入阿里巴巴,曾担任阿里IDST智能语音交互团队总监。

Manus与阿里通义千问团队正式达成战略合作

分享至

3月11日,Manus平台宣布与阿里通义千问团队正式达成战略合作。双方将基于通义千问系列开源模型,致力于在国产模型和算力平台上实现Manus的全部功能。Manus AI方面表示,目前两家技术团队已展开紧密协作,共同致力于为中国用户打造更具创造力的通用智能体产品。

阿里发布并开源推理模型通义千问QwQ-32B

分享至

3月6日,阿里巴巴发布并开源全新的推理模型通义千问QwQ-32B,阿里巴巴称,这是一款拥有320亿参数的模型,其性能可与具备6710亿参数(其中370亿被激活)的DeepSeek-R1媲美。

智己汽车完成与DeepSeek深度融合,与豆包、通义等大模型聚合

分享至

2月8日消息,记者从智己汽车内部获悉,其智能座舱已深度引入DeepSeek大模型,并与豆包、通义等大模型合作,通过深度联合训练,构建多场景插拔式AI矩阵平台。

阿里云通义灵码AI程序员上线,可与人类协作完成复杂开发任务

分享至

1月8日消息,记者获悉,阿里云通义灵码AI程序员已全面上线,成为全球首个同时支持VSCode、JetBrainsIDEs开发工具的AI程序员产品。此次上线的AI程序员相比传统AI辅助编程工具,能力更全面,可以让开发者以更高效、更沉浸的方式完成编码任务,通过全程对话协作的方式,就能完成从0到1的业务需求开发、问题修复、单元测试批量生成等复杂编码任务。

阿里云通义再降价80%

分享至

12月31日,阿里云宣布本年度第三轮大模型降价,通义千问视觉理解模型全线降价超80%。其中Qwen-VL-Plus直降81%,输入价格仅为0.0015元/千tokens,创下全网最低价格;更高性能的Qwen-VL-Max降至0.003元/千tokens,降幅高达85%。按照最新价格,1块钱可最多处理约600张720P图片,或1700张480P图片。

阿里云通义开源首个多模态推理模型QVQ,视觉推理比肩OpenAI o1

分享至

12月25日,阿里云通义千问发布业界首个开源多模态推理模型QVQ-72B-Preview。QVQ展现出超预期的视觉理解和推理能力,在解决数学、物理、科学等领域的复杂推理问题上表现尤为突出。多项评测数据显示,QVQ超越了此前的视觉理解模型「开源王者」Qwen2-VL,整体表现与「满血版」OpenAI o1、Claude3.5 Sonnet等推理模型相当。目前,开发者可在魔搭社区和HuggingFace平台上直接体验。

通义”应用团队从阿里云分拆,并入阿里智能信息事业群

分享至

12月18日消息,从多个独立信源处获悉,阿里旗下的AI应用“通义”近期正式从阿里云分拆,并入阿里智能信息事业群。有知情人士称,此次调整包括通义To C方向的产品经理,以及相关的工程团队,一并调整至阿里智能信息事业群。调整后,通义PC及App团队与智能搜索产品“夸克”平级,原有的通义实验室,仍然留在阿里云体系内。此前,阿里旗下的大模型家族“通义”,包括应用层的“通义”App、PC端,均属于阿里云体系。其中,通义大模型家族由达摩院开发——达摩院的主要职能,更偏向基础科学和创新性技术研究;而阿里云又是一个To B业务,也不适合投入进直面To C市场的应用开发和推广中。

阿里云通义开源推理大模型QwQ,推理水平比肩OpenAI o1

分享至

11月28日,阿里云通义团队发布全新AI推理模型QwQ-32B-Preview,并同步开源。评测数据显示,预览版本的QwQ,已展现出研究生水平的科学推理能力,在数学和编程方面表现尤为出色,整体推理水平比肩OpenAI o1。QwQ(Qwen with Questions)是通义千问Qwen大模型最新推出的实验性研究模型,也是阿里云首个开源的AI推理模型。阿里云通义千问团队研究发现,当模型有足够的时间思考、质疑和反思时,其对数学和编程的理解就会深化。基于此,QwQ取得了解决复杂问题的突破性进展。

Rokid Glasses AR眼镜发布:重量49g、阿里通义AI,2499元

分享至

11月18日消息,在今日下午的Rokid Jungle 2024合作伙伴暨新品发布会上,Rokid Glasses AR眼镜新品发布。Rokid Glasses与暴龙眼镜合作,可选多款配色,整体重量仅49g,支持全天佩戴。通过整合阿里巴巴通义千问多模态大模型,Rokid Glasses支持接打电话、AI问答搜索、AI识别物体、AI拍照答题、AI多语种翻译、AI导航、AI转译、AI健康提醒等。从发布会获悉,Rokid Glasses定价2499元,将于2025年第二季度上市开售。

阿里通义千问代码模型Qwen2.5-Coder全系列正式开源

分享至

11月13日,据阿里云消息,阿里云通义大模型团队正式开源通义千问代码模型全系列,共6款Qwen2.5-Coder模型。此次开源共推出0.5B/1.5B/3B/7B/14B/32B等6个尺寸的全系列模型,每个尺寸都开源了Base和Instruct模型。其中,Base模型可供开发者微调,Instruct模型则是开箱即用的官方对齐模型。

传阿里通义技术负责人周畅加入字节跳动

分享至

近日,有媒体报道,阿里通义千问大模型技术负责人周畅低调加入字节跳动。据悉,加入字节的重要大模型人才不止周畅。目前,已有多位AI领域的专家计划加入该研究院。前面壁智能核心成员秦禹嘉和前零一万物核心成员黄文灏已加入字节的大模型团队,汇报给朱文佳。另外,字节还通过收购方式吸揽人才,目前已有多家知名AI创业公司收到字节的收购要约。

阿里云发布通义千问新一代开源模型Qwen2.5

分享至

9月19日云栖大会,阿里云CTO周靖人发布通义千问新一代开源模型Qwen2.5,其中,旗舰模型Qwen2.5-72B性能超越Llama 405B,再登全球开源大模型王座。Qwen2.5涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架100多个模型,刷新业界纪录。截至2024年9月中旬,通义千问开源模型累计下载量已突破4000万,成为仅次于Llama的世界级模型群。

阿里通义将发布视频生成大模型,预约页面已上线

分享至

9月14日,记者获悉,阿里通义将在云栖大会期间发布视频生成大模型,目前通义App频道和通义万相PC端已上线“视频生成”入口,仅支持用户预约,但未开放使用。页面内容显示,全新发布的视频生成大模型是由通义实验室自主研发,包含“文生视频”和“图生视频”两种创作模式。

通义千问技术骨干周畅将离职创业

分享至

7月17日消息,有消息称阿里通义大模型团队核心成员周畅博士拟于近日离职创业。知情人士向界面新闻透露,周畅是通义实验室算法团队的核心技术骨干之一,属于正常离职。通义大模型的研发和开源工作正在继续向前推进。 目前,阿里通义实验室负责人为周靖人。

阿里通义千问Qwen2大模型发布并同步开源

分享至

6月7日,阿里通义千问Qwen2大模型发布,并在Hugging Face和ModelScope上同步开源。Qwen2系列涵盖5个尺寸的预训练和指令微调模型,其中包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,上下文长度支持进一步扩展,最高达128K tokens。

火山引擎回应阿里通义大模型降价

分享至

5月21日消息,阿里云宣布通义千问GPT-4级主力模型降价,对此,火山引擎相关负责人回应称,非常欢迎通义千问大模型降价,共同助力企业以更低成本探索AI转型,加速大模型应用场景落地。据介绍,豆包大模型在大幅降价同时,还为客户提供了业内最高标准的 TPM(每分钟Tokens)和 RPM(每分钟请求数),每分钟处理 Tokens 限额达到业内同规格模型的数倍,能够支持大量并发请求,有助于企业在生产系统调用大模型。

通义千问开源千亿级参数模型

分享至

4月28日消息,通义千问开源1100亿参数模型Qwen1.5-110B,成为全系列首个千亿级参数开源模型。通义千问1100亿参数模型延续了Qwen1.5系列的Transformer解码器架构,采用了分组查询注意力方法(GQA),使得模型在推理时更加高效。110B模型支持32K上下文长度,具备优秀的多语言能力,支持中、英、法、德、西、俄、日、韩、越、阿拉伯等多种语言。

点击加载更多