TABLE dateformat(file.ctime,"yyyy-MM-dd HH:mm:ss") as "created", file.size as "size" WHERE this.file.name = dateformat(file.ctime,"yyyy-MM-dd")
SORT file.ctime ASC

RunnerGO

基于 go 语言的一体化性能压测工具

RunnerGo 致力于打造成一款全栈式测试平台,采用了较为宽松的 Apache-2.0 license 开源协议,方便志同道合的朋友一起为开源贡献力量,目前实现了接口测试、场景自动化测试、性能测试等测试能力。随着不断的迭代,我们将会推出更多的测试功能。我们的目的是为研发赋能,让测试更简单。

工具特性

  • go 语言运行:基于 go 语言开发,运行速度快、更节省资源
  • 智能调度算法:自研的调度算法,合理利用服务器资源,降低资源消耗
  • 实时生成测试报告:运行任务后,可实时查看执行结果,快速诊断服务病症
  • 丰富的报告图表: 全方位展示各个指标运行曲线图
  • 实时修改: 可根据压测模式实时修改并发数、持续时长等
  • 实时日志: 可在压测过程中开启日志模式,查看请求响应信息
  • 可编辑报告:可在任务运行结束后,针对测试结果进行测试分析,实时编写报告
  • Flow 场景流:可视化的业务流,通过连线就可快速搭建起来自己的业务流,还可直接调试运行场景,电流般的业务流转
  • 多种压测模式:支持并发模式、阶梯模式、错误率模式、响应时间模式、每秒应答数模式等多种压测模式,满足所有业务需求
  • 自持接口自动化,采用用例集概念,生成丰富的自动化报告

ChatGPT-UI

聊天机器人的开源 UI

Colossal-AI

GitHub - hpcaitech/ColossalAI: Making large AI models cheaper, faster and more accessible

Low-cost Fine-tuning of LoRA

Colossal-AI includes the Low-Rank Adaptation (LoRA) method for low-cost fine-tuning of large models. The LoRA method assumes that large language models are over-parameterized and that the parameter change during fine-tuning is a low-rank matrix. Therefore, this matrix can be decomposed into the product of two smaller matrices. During fine-tuning, the parameters of the large model are fixed, and only the parameters of the low-rank matrix are adjusted, significantly reducing the number of parameters required for training and lowering the cost.

翻译一下

Colossal-AI 包括用于对大型模型进行低成本微调的低秩适应 (LoRA) 方法。 LoRA 方法假设大型语言模型是过度参数化的,并且微调期间的参数变化是一个低秩矩阵。因此,这个矩阵可以分解为两个更小的矩阵的乘积。 fine-tuning 时固定大模型的参数,只调整低秩矩阵的参数,显着减少训练所需的参数数量,降低成本。

RLHF 模型评测

GitHub - sunzeyeah/RLHF: Implementation of Chinese ChatGPT

提供 2 大功能: