测试一下之前准备的样本,不出意外地答错了: 超长上下文和线性注意力固然好,但是现在LLM最缺乏的不是长度,而是深度(如前面的样本所示)。 OpenAI的o1路线尝试了用长度思考来弥补深度不足(多次思考,回溯等)。
这次开源的是MiniMax-01系列,包含了两个新模型,一个是基础语言大模型「MiniMax-Text-01」,另一个是视觉多模态大模型「MiniMax-VL-01」,都是首次发布就直接开源的。 MiniMax新模型的亮点 ...