本次活动自 1024 程序员节开始,12 月底结束,还有一个月的挑战时间,速来参与,赢取超值奖品!!!
活动介绍
本次 CodeFuse「编码挑战季」活动,需实际完成muAgent、MFTCoder、ModelCache、CodeFuse-IDE 四个代码仓库的编码挑战,深化对 CodeFuse 项目及开源社区了解、技术提升的同时,还有机会赢取 CodeFuse 定制周边,有突出贡献的开发者,还将获得 MelGeekMADE68 PRO磁轴键盘、Beats Studio Pro无线蓝牙耳机~
对活动有任何疑问欢迎提交 ISSUE 、在https://github.com/orgs/codefuse-ai/discussions 页面发起讨论或加入我们的社群,我们将倾力解答。每个任务根据难度不同,完成后将获得相应积分,积分可兑换 CodeFuse 定制的周边礼品。积分排名将在活动结束后统一进行公示~(如需进行积分兑换可随时在社群内@CodeFuse服务小助手 )
赛程安排
即日起至 12 月底,在本次活动任务专区 https://github.com/orgs/codefuse-ai/projects/3/views/1 领取并完成任务即可赢取 CodeFuse 定制周边。
参赛步骤
- 在CodeFuse「编码挑战季」任务专区 https://github.com/orgs/codefuse-ai/projects/3/views/1 浏览并跟帖你感兴趣的任务,认领回复格式:【GitHub ID + Give it to me】
- 任务开发:成功认领任务后,即可进入任务的具体实现阶段啦,请在活动有效期内完成任务哟。如需提交设计思路,请投递:codefuse_ai_native@service.alipay.com
- PR 提交:当按照任务要求全部完成后,以 PR 形式提交要求内容到指定位置。(说明:收到 PR 提交后,研发老师会在 2-3 个工作日进行验收并给到 Review 意见。)
奖品设置
开发者可自由领取任务,每个任务根据难度不同,完成后将获得相应积分,积分可兑换 CodeFuse 定制的周边礼品。
- 1 积分得 CodeFuse 定制鼠标垫
- 2 积分得 CodeFuse 定制 U 型枕
- 3 积分得 CodeFuse 定制单肩包
- 4 积分得 CodeFuse 文化衫
- 5 积分得 CodeFuse 定制双肩包
在项目内持续贡献且获得该项目研发老师认可,即可获得特别贡献奖:MelGeekMADE68 PRO磁轴键盘X4、Beats Studio Pro 无线蓝牙耳机X4
参与社群互动
在完成任务过程中你有任何疑问,可第一时间在任务界面反馈、提交 ISSUE 或在社群与我们互动~
对项目有任何优化建议和想法也可以跟我们互动哦!
一些项目介绍
muAgent
一个全新的由LLM与EKG(Eventic Knowledge Graph,行业知识载体)驱动的Agent框架,协同MultiAgent、FunctionCall、CodeInterpreter等,通过基于画布的拖拽和简单的文本书写,大语言模型可以协助您在人为指导下执行各种复杂的SOP。兼容市面上现有的框架,可实现复杂推理、在线协作、人机交互、知识按需四大核心差异化技术功能。此框架已在蚂蚁集团内部多个复杂DevOps场景中得到验证。同时,快来体验我们快速搭建的Undercover游戏吧!
- 仓库地址:https://github.com/codefuse-ai/CodeFuse-muAgent
MFTCoder
针对代码 LLM 的高精度、高效率多任务微调框架。
MFTCoder是 CodeFuse 的一个开源项目,用于在大型语言模型 (LLM) 上进行准确高效的多任务微调 (MFT),尤其是 Code-LLM(用于代码任务的大型语言模型)。此外,我们开源了 Code LLM 模型和与代码相关的数据集以及 MFTCoder 框架。
在 MFTCoder 中,我们发布了两个用于微调大型语言模型的代码库:
MFTCoder-accelerate是一个具有加速和 DeepSpeed/FSDP 的框架。所有技术栈都是开源且充满活力的。我们强烈建议您尝试这个框架,让您的财务调整准确而高效。
MFTCoder-atorch基于ATorch框架,这是一个LLM的快速分布式训练框架。
该项目的目标是促进合作并分享大型语言模型的进步,特别是在代码开发领域。
- 仓库地址:https://github.com/codefuse-ai/MFTCoder
ModelCache
ModelCache 是一个用于大型语言模型(LLM)的语义缓存系统,通过缓存预先生成的模型结果,减少类似请求的响应时间,该项目旨在通过引入缓存机制来优化大模型推理服务,帮助企业和研究机构降低推理部署成本,提高模型性能和效率,并为大型模型提供可扩展的服务。通过开源,我们旨在分享和交流与大型模型语义缓存相关的技术。
- 仓库地址:https://github.com/codefuse-ai/ModelCache
CodeFuse-IDE
基于 CodeFuse 和 OpenSumi 的 AI Native IDE。
AI 原生开发环境:享受利用 AI 技术来提高生产力和简化工作流程的集成开发环境。
开放模型集成:我们的平台支持各种模型的无缝集成,允许开发人员根据自己的需求定制和扩展功能。
VS Code 扩展兼容性:通过确保与 VS Code 扩展的兼容性,您可以从丰富的插件生态系统中受益,从而利用现有的工具和资源。
完整的解决方案:使用 electron-forge 打包桌面应用程序并支持开发、构建、打包和自动更新。
- 仓库地址:https://github.com/codefuse-ai/codefuse-ide