经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » Java相关 » Java » 查看文章
【开源】给ChatGLM写个,Java对接的SDK
来源:cnblogs  作者:小傅哥  时间:2023/10/13 8:46:09  对本文有异议

作者:小傅哥 - 百度搜 小傅哥bugstack

博客:bugstack.cn

沉淀、分享、成长,让自己和他人都能有所收获!??

大家好,我是技术UP主小傅哥。

清华大学计算机系的超大规模训练模型 ChatGLM-130B 使用效果非常牛,所以我也想把这样的Ai能力接入到自己的应用中或者做一些 IntelliJ IDEA Plugin 使用。但经过了一晚上的折腾,我决定给它写个对接的SDK开源出来!—— ?? 智谱Ai不是已经有了一个SDK吗?为啥还要写呢?那你写多少了?

在很早之前就关注了智谱Ai(ChatGLM),也看到官网有一个Java对接的SDK方式。但从前几天开始正式对接发现,这SDK是8月份提交的,10个commit,而且已经2个月没有更新了。所以真的是不少Bug呀,呀,呀!如果不去修改它的SDK代码,就没法对接。如;ConfigV3类中,拆分ApiKey的操作;String[] arrStr = apiSecretKey.split("."); 但这里的.是正则的关键字,所以根本没法拆分。一起动就报错 invalid apiSecretKey 这对于初次对接并且没有看源码的伙伴来说,是不小的炸雷。

不过,虽然 SDK 有点赶工,不好用。但不影响智谱Ai(ChatGLM)是个好东西。他的官网中有API HTTP 接口对接描述。所以,小傅哥决定跟着按照它的文档写一个能简单对接,代码有干净整洁的 SDK 让大家使用。

那么,接下来小傅哥就介绍下,如何基于智谱Ai(ChatGLM)的开发者文档,开发一个通用的SDK组件。也让后续有想法PR贡献源码的伙伴,一起参与进来。—— 别看东西不大,写到简历上,也是非常精彩的一笔!

本文不止有智谱Ai-SDK开发,还有如何在项目中运用SDK开发一个自己的OpenAi服务。文末有SDK链接和OpenAi应用工程。

一、对接鉴权

智谱Ai的Api文档,与ChatGPT对接有一些差

如果大家对接过ChatGPT开发,直接获取一个ApiKey就可以使用了。但在对接智谱Ai的Api时,需要把获取的ApiKey按照.号分割,并需要进行JWT-Token的创建。而这个Token才是实际传给接口的内容。

  • 因为生成Token会比较耗时,所以这里会使用Guava框架进行本地缓存29分钟,有效期30分钟的Token,确保可以有效的刷新。
  • 在工程中提供了 BearerTokenUtils Token 生成工具类,测试的时候可以使用。

二、接口处理

文档https://open.bigmodel.cn/dev/api#chatglm_lite - 以Api文档的chatglm_lite模型举例对接

传输方式 https
请求地址 https://open.bigmodel.cn/api/paas/v3/model-api/chatglm_lite/sse-invoke
调用方式 SSE
字符编码 UTF-8
接口请求头 accept: text/event-stream
接口请求格式 JSON
响应格式 标准 Event Stream
接口请求类型 POST
开发语言 任意可发起 HTTP 请求的开发语言

在正式开发代码,要把接口的使用先简单测试运行出来。之后再去编写代码。为此这里小傅哥先根据官网的文档和鉴权使用方式,编写了 curl http 请求;

  1. curl -X POST -H "Authorization: Bearer eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiIsInNpZ25fdHlwZSI6IlNJR04ifQ.eyJhcGlfa2V5IjoiNGUwODdlNDEzNTMwNmVmNGE2NzZmMGNjZTNjZWU1NjAiLCJleHAiOjE2OTY5OTM5ODIzMTQsInRpbWVzdGFtcCI6MTY5Njk5MjE4MjMxNH0.9nxhRXTJcP4Q_YTQ8w5y0CZOBOu0epP1J56oDaYewQ8" -H "Content-Type: application/json" -H "User-Agent: Mozilla/4.0 (compatible; MSIE 5.0; Windows NT; DigExt)" -H "Accept: text/event-stream" -d '{
  2. "top_p": 0.7,
  3. "sseFormat": "data",
  4. "temperature": 0.9,
  5. "incremental": true,
  6. "request_id": "xfg-1696992276607",
  7. "prompt": [
  8. {
  9. "role": "user",
  10. "content": "写个java冒泡排序"
  11. }
  12. ]
  13. }' http://open.bigmodel.cn/api/paas/v3/model-api/chatglm_lite/sse-invoke
  • 注意:Authorization: Bearer 后面传的是 JWT Token 不是一个直接从官网复制的 ApiKey - 你可以使用工程中 BearerTokenUtils 创建
  • 之后可以直接运行这段脚本(也可以导入到ApiPost工具中),执行后就能获得到运行效果了。—— 速度非常快!

三、组件开发

在??考虑到抽象和设计原则下,小傅哥这里采用了会话模型结构进行工程框架设计。把程序的调用抽象为一次会话,而会话的创建则交给工厂??。通过工厂屏蔽使用细节,在使用上简化调用,尽可能让外部最少知道原则。这样的设计实现方式,既可以满足调用方开心的使用,也可以让SDK贡献者见代码如见文档,容易理解和上手。

1. 工程结构

  • 工程非常注重会话的设计和使用,因为框架的根基搭建好以后,扩展各项功能就会有迹可循。大部分代码就是因为早期没有考虑好框架,最后功能来了被填充的很乱。

2. 会话流程

  • 会话流程以工厂创建 Session 为入口点进行使用,其他的操作都在组件内自己处理好。

3. 代码举例

  1. @Override
  2. public OpenAiSession openSession() {
  3. // 1. 日志配置
  4. HttpLoggingInterceptor httpLoggingInterceptor = new HttpLoggingInterceptor();
  5. httpLoggingInterceptor.setLevel(configuration.getLevel());
  6. // 2. 开启 Http 客户端
  7. OkHttpClient okHttpClient = new OkHttpClient
  8. .Builder()
  9. .addInterceptor(httpLoggingInterceptor)
  10. .addInterceptor(new OpenAiHTTPInterceptor(configuration))
  11. .connectTimeout(configuration.getConnectTimeout(), TimeUnit.SECONDS)
  12. .writeTimeout(configuration.getWriteTimeout(), TimeUnit.SECONDS)
  13. .readTimeout(configuration.getReadTimeout(), TimeUnit.SECONDS)
  14. .build();
  15. configuration.setOkHttpClient(okHttpClient);
  16. // 3. 创建 API 服务
  17. IOpenAiApi openAiApi = new Retrofit.Builder()
  18. .baseUrl(configuration.getApiHost())
  19. .client(okHttpClient)
  20. .addCallAdapterFactory(RxJava2CallAdapterFactory.create())
  21. .addConverterFactory(JacksonConverterFactory.create())
  22. .build().create(IOpenAiApi.class);
  23. configuration.setOpenAiApi(openAiApi);
  24. return new DefaultOpenAiSession(configuration);
  25. }
  • 这是一段 DefaultOpenAiSessionFactory 创建工厂开启会话的服务对象。使用方只需要在自己的工程中,创建出一个工厂对象就可以对接使用了。下文有代码示例
  • 其他更多的代码,直接看小傅哥开发好的 chatglm-sdk-java

四、组件使用

1. 组件配置

  • 申请ApiKey:https://open.bigmodel.cn/usercenter/apikeys - 注册申请开通,即可获得 ApiKey
  • 运行环境:JDK 1.8+
  • maven pom - 暂时测试阶段,未推送到Maven中央仓库,需要下载代码本地 install 后使用
  1. <dependency>
  2. <groupId>cn.bugstack</groupId>
  3. <artifactId>chatglm-sdk-java</artifactId>
  4. <version>1.0-SNAPSHOT</version>
  5. </dependency>

2. 单元测试

  1. @Slf4j
  2. public class ApiTest {
  3. private OpenAiSession openAiSession;
  4. @Before
  5. public void test_OpenAiSessionFactory() {
  6. // 1. 配置文件
  7. Configuration configuration = new Configuration();
  8. configuration.setApiHost("https://open.bigmodel.cn/");
  9. configuration.setApiSecretKey("4e087e4135306ef4a676f0cce3cee560.sgP2*****");
  10. // 2. 会话工厂
  11. OpenAiSessionFactory factory = new DefaultOpenAiSessionFactory(configuration);
  12. // 3. 开启会话
  13. this.openAiSession = factory.openSession();
  14. }
  15. /**
  16. * 流式对话
  17. */
  18. @Test
  19. public void test_completions() throws JsonProcessingException, InterruptedException {
  20. // 入参;模型、请求信息
  21. ChatCompletionRequest request = new ChatCompletionRequest();
  22. request.setModel(Model.CHATGLM_LITE); // chatGLM_6b_SSE、chatglm_lite、chatglm_lite_32k、chatglm_std、chatglm_pro
  23. request.setPrompt(new ArrayList<ChatCompletionRequest.Prompt>() {
  24. private static final long serialVersionUID = -7988151926241837899L;
  25. {
  26. add(ChatCompletionRequest.Prompt.builder()
  27. .role(Role.user.getCode())
  28. .content("写个java冒泡排序")
  29. .build());
  30. }
  31. });
  32. // 请求
  33. openAiSession.completions(request, new EventSourceListener() {
  34. @Override
  35. public void onEvent(EventSource eventSource, @Nullable String id, @Nullable String type, String data) {
  36. ChatCompletionResponse response = JSON.parseObject(data, ChatCompletionResponse.class);
  37. log.info("测试结果 onEvent:{}", response.getData());
  38. // type 消息类型,add 增量,finish 结束,error 错误,interrupted 中断
  39. if (EventType.finish.getCode().equals(type)) {
  40. ChatCompletionResponse.Meta meta = JSON.parseObject(response.getMeta(), ChatCompletionResponse.Meta.class);
  41. log.info("[输出结束] Tokens {}", JSON.toJSONString(meta));
  42. }
  43. }
  44. @Override
  45. public void onClosed(EventSource eventSource) {
  46. log.info("对话完成");
  47. }
  48. });
  49. // 等待
  50. new CountDownLatch(1).await();
  51. }
  52. }
  • 这是一个单元测试类,也是最常使用的流式对话模式。

五、应用接入

1. SpringBoot 配置类

  1. @Configuration
  2. @EnableConfigurationProperties(ChatGLMSDKConfigProperties.class)
  3. public class ChatGLMSDKConfig {
  4. @Bean
  5. @ConditionalOnProperty(value = "wxpay.config.enabled", havingValue = "true", matchIfMissing = false)
  6. public OpenAiSession openAiSession(ChatGLMSDKConfigProperties properties) {
  7. // 1. 配置文件
  8. cn.bugstack.chatglm.session.Configuration configuration = new cn.bugstack.chatglm.session.Configuration();
  9. configuration.setApiHost(properties.getApiHost());
  10. configuration.setApiSecretKey(properties.getApiSecretKey());
  11. // 2. 会话工厂
  12. OpenAiSessionFactory factory = new DefaultOpenAiSessionFactory(configuration);
  13. // 3. 开启会话
  14. return factory.openSession();
  15. }
  16. }
  17. @Data
  18. @ConfigurationProperties(prefix = "chatglm.sdk.config", ignoreInvalidFields = true)
  19. public class ChatGLMSDKConfigProperties {
  20. /** 状态;open = 开启、close 关闭 */
  21. private boolean enable;
  22. /** 转发地址 */
  23. private String apiHost;
  24. /** 可以申请 sk-*** */
  25. private String apiSecretKey;
  26. }
  1. @Autowired(required = false)
  2. private OpenAiSession openAiSession;
  • 注意:如果你在服务中配置了关闭启动 ChatGLM SDK 那么注入 openAiSession 为 null

2. yml 配置

  1. # ChatGLM SDK Config
  2. chatglm:
  3. sdk:
  4. config:
  5. # 状态;true = 开启、false 关闭
  6. enabled: false
  7. # 官网地址
  8. api-host: https://open.bigmodel.cn/
  9. # 官网申请 https://open.bigmodel.cn/usercenter/apikeys
  10. api-key: 4e087e4135306ef4a676f0cce3cee560.sgP2DUs*****
  • 你可以在配置文件中,通过 enabled 参数,启动和关闭 ChatGLM SDK

六、应用开发

基于本文开发的 ChatGLM SDK 就可以对接到 OpenAi 开发一个自己的应用了。https://bugstack.cn/md/project/chatgpt/chatgpt.html

原文链接:https://www.cnblogs.com/xiaofuge/p/17761062.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号