是否还在因Spring AI的版本挑选而感到为难呢?在2026年3月的时候,官方进行了密集发布,发布了三个版本,分别是1.0.4、1.1.3以及2.0.0 M3。其中,主线版本是1.1.3,它带来了19项重要更新,从底层依赖方面,到核心功能方面,都有着显著的提升,这些变化与Java开发者怎样更高效地集成大模型能力直接相关。
Spring AI 1.1.3把底层的Spring Boot依赖提升到了3.5.11版本范畴。此次提升并非单纯的版本号变动,而是涵盖了Spring Boot生态系统里从安全补丁直至性能层面优化的所有最新改进之地步,以此保障了整个技术栈的稳定性以及安全性呢。
有一项工作被官方完成了,那就是对所有已经被弃用了的Anthropic模型标识符进行替换。这所带来的结果是,开发者不用再去手动处理旧模型名的兼容性问题了,而是能够直接去使用当前Anthropic API所支持的最新模型标识符。如此一来,因API变更而导致的代码维护成本就被减少了。
能支持通过builder模式来自定义过滤表达式转换器的是Neo4j向量存储,这一改进使得开发者在构建向量查询期间,可以更灵活地去定义过滤逻辑,不再被固定的表达式格式所限制,显著提升了复杂场景下的检索精度。
简易向量存储新增了一项功能,即依据过滤条件来删除向量。在此之前,对于向量数据的删除操作较为粗放,现今能够基于元数据的字段实施精细化删除,这使得向量数据库的管理粒度从整体的操作细化变革为单条记录的级别。
OpenAiEmbeddingModel导入了自定义维度配置功用,借助embedding/embedding-model-dimensions.properties配置文档,开发者能够依据业务需要调节向量维度,于存储成本跟检索精度之间寻觅到更恰当的平衡点。
支持得到了全面加强的结构化输出,如今Mistral AI以及Ollama均支持类型安全的结果转换。OpenAiSdkChatModel连同OllamaChatOptions都借由builder模式达成了更灵活的配置举措,开发者能够以更清晰的代码结构去完成模型参数的设置。
对于本次更新而言,ToolCallAdvisor获得了流式响应支持,这一获流式响应支持的情况,对于需要实时反馈的工具,也就是在调用外部API的聊天应用这类场景下,至关重要,因为在那种场景里,用户能够更快看到处理进度,而不是在等待全部结果返回之后才进行展示。
聊天记忆顾问把对ToolResponseMessage的支持增多了,工具调用给出的返回结果能够准确无误地进到对话历史当中。与此同时,新增加的conversationHistoryEnabled选项,使得开发者能够精准把控每次工具调用之际是不是携带历史对话上下文。
Azure Vector Store如今对于配置字段名称予以支持,原先字段名呈固定写死状态的content、embedding、metadata,当下能够灵活地映射至已存在的Azure AI Search索引字段,如此大规模地削减了与现有搜索基础设施进行集成时的改造成本,就是这样。
增添了针对Anthropic Claude Skills API的支持,然后还给出了统一的API设计以及帮助类。Ollama Embedding模型如今支持dimensions参数,MCP自动配置在非Web环境中的问题也已得以修复,多个模型接入场景的实用性显著得到了提升。
TokenTextSplitter对自定义标点符号予以支持,不同语言以及领域的文本分割需求存在着极大差异,当下开发者能够依据中文、英文或者其他语言的标点习惯去配置分割规则,进而让文本处理更契合实际应用场景。
增强了Microsoft Foundry集成的模型提供方检测逻辑,新增的Mcp*ServerCustomizer接口,使开发者在非标准环境中可以灵活调整MCP服务的配置行为,扩展了Spring AI的部署场景。
这次Spring AI 1.1.3的更新,将重点放在了结构化输出、工具调用、向量检索以及多模型接入这类核心能力方面。它是处在既是开发者关注又是面试官关注的技术栈范畴内,那你当下在使用的是哪一个版本?于实际项目期间碰到过哪些集成方面的问题呢?欢迎在评论区去分享你的经验。

相关标签: # SpringAI # Java # 大模型 # 新特性 # 工具调用