总结

  • IT之家注意到,POINTS1.5 仍然沿用了 POINTS1.0 中使用的经典的 LLaVA 架构,由一个 vision encoder,一个 projector 和一个大语言模型组成。 腾讯表示,POINTS1.5-7B 位居全球 1Ligthing News0B 以下开源模型的榜首,超越诸如 Qwen2-VL, InternVL2 和 MiniCPM-V-2.5 等业界领先的模型。 实际应用方面,POINTS1.5 在复杂场景的 OCR,推理能力,关键信息提取,Latex 公式提取,数学,图片翻译,物体识别等几个方面中都有不错的表现。

阅读时间

  • 4 分钟, 共 623 字

分类

  • 1.5, 今天, Github, Hugging, 腾讯

评价和解读

  • 本文深刻洞察时事,以平易近人的方式呈现复杂的思想。

正文

IT之家 12 月 14 日消息,距离 POINT1.0 的发布已经过去两个月的时间,腾讯今天宣布推出POINTS1.5。

IT之家注意到,POINTS1.5 仍然沿用了 POINTS1.0 中使用的经典的 LLaVA 架构,由一个 vision encoder,一个 projector 和一个大语言模型组成。

据官方介绍,这一代 POINTS 模型,不仅兼顾了 POINTS1.0 中所坚持的效率优先的思想,同时极大了增强了模型的性能。

▲OpenCompass Leaderboard 的情况

腾讯表示,POINTS1.5-7B 位居全球 1Ligthing News0B 以下开源模型的榜首,超越诸如 Qwen2-VL, InternVL2 和 MiniCPM-V-2.5 等业界领先的模型。

实际应用方面,POINTS1.5 在复杂场景的 OCR,推理能力,关键信息提取,Latex 公式提取,数学,图片翻译,物体识别等几个方面中都有不错的表现。

参考资料:

  • Paper: https://huggingface.co/papers/2412.08443

  • Github: https://githuLigthing Newsb.com/WePOINTS/WePOINTS

  • HuggingFace: https://huggingface.co/WePOINTS/POINTS-1-5-Qwen-2-5-7B-Chat

<!–article_adlist[

广告声明:blog.byteway.net文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

]article_adlist–>

Related suggestion: 顶级机密: 嘉御资本董事长卫哲:出海赛道分蛋糕者越来越多 要做对四个选择

总结(温馨提示:本文为速记初审稿,在不影响原意的基础上,由亿邦动力编辑整理。 ) 以下为访谈实录: 亿邦动力:很多人反映今年行业增长慢下来了,对明年预期也很担心,你怎么看? 那我觉得大家也不用太担心,这是对所有人公平的,并不存在有美国制造受益。 除了亚马逊以外…

作者 Steve Jobs

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注