Explore GitLab
Discover projects, groups and snippets. Share your projects with others
-
彻底开源预训练大模型,本项目能够预训练出超出qwen2.5、llama3效果的大语言模型,为一些人工智能大厂的训练代码。
-
问答多模态大模型
-
一个由摩尔线程开发的、基于大语言模型(Large Language Model,LLM)的语音识别和语音翻译系统。
-
MobileVLM V2为移动端部署而设计,在资源受限的设备上展现出出色的性能,计算量1.7B达到普通VLM3B大小的水平,与LLaMA2共享相同分词器,便于知识蒸馏,在精度和性能上达到了一个新的平衡点,以下步骤适于推理。
-
轻量化之王MobileNetV4,手机推理速度 3.8ms,在移动CPU、DSP、GPU以及苹果M处理器和谷歌Pixel Edge TPU全都高性能。
-
-
-
-
-
-
迈向高性能的单阶段实时多人姿态估计,精度、速度均超越超越YOLO-pose。
-
-
-
-
-
-
2B小钢炮碾压Mistral-7B,整体性能超越 Llama2-13B,消费级显卡可训练。
-
基于源MiniCPM修改的分类算法,可用于情感分类等场景,2B参数量效果碾压Mistral-7B。
-
多模态OCR大模型,端侧可用
-
MiniCPM-o 2.6是MiniCPM-o 系列的最新、性能最佳模型。总参数量 8B,视觉、语音和多模态流式能力达到了 GPT-4o-202405 级别,是开源社区中模态支持最丰富、性能最佳的模型之一。