theOehrly/Fast-F1
Fast-F1 是一个用于访问和分析一级方程式赛车结果、赛程、计时数据及遥测信息的 Python 工具包。
- 提供对 F1 计时数据、遥测信息和赛事结果的全面访问
- 支持 Ergast 兼容的 jolpica-f1 API,涵盖当前及历史 F1 数据
- 所有数据均以扩展版 Pandas DataFrame 格式呈现,便于高效处理与分析
- 为 Pandas 对象添加专门针对 F1 数据操作的自定义函数,加快工作流程
- 集成 Matplotlib,实现便捷的数据可视化展示
- 实现所有 API 请求缓存机制,提高脚本执行速度
EveryInc/compound-engineering-plugin
compound-engineering-plugin 是一个旨在通过系统化规划、执行、评审和知识沉淀,逐步降低工程复杂度的开发辅助插件。
- 提供从需求规划到代码复审再到经验积累的完整工作流支持
- 采用多代理协作机制实现高质量代码评审与任务跟踪
- 强调前期充分计划与持续复盘,以减少技术债务并提升后续开发效率
- 将每次工程活动视为对未来工作的投资,通过文档化学习成果促进知识复用
virattt/dexter
dexter 是一个专注于深度金融研究的自主智能代理,能够通过规划任务、自我反思和实时市场数据分析,提供结构化且数据驱动的研究结论。
- 智能任务规划:自动将复杂金融问题拆解为有序的研究步骤
- 自主执行能力:选择并运用合适工具采集财务数据
- 自我验证机制:持续检查与迭代工作成果以确保准确性
- 实时获取财务报表数据,包括利润表、资产负债表和现金流量表
- 安全防护设计:内置循环检测与步骤限制避免无限运行
lyogavin/airllm
airllm 是一个优化推理内存使用的框架,使得 70 亿参数的大型语言模型能够在单张 4GB 显存的 GPU 上运行推理,无需量化、蒸馏或剪枝。
- 支持在单个 4GB GPU 上高效运行 70B 规模大型语言模型,突破硬件限制
- 兼容多种主流大模型,包括 Llama3.1(最高 405B 参数)、ChatGLM、Qwen、Baichuan 等
- 提供基于块状量化的模型压缩技术,实现最高 3 倍推理速度提升且精度损失极小
- 支持 CPU 推理和非分片模型,增强灵活性与适用场景广度
- 跨平台支持 MacOS 环境,方便不同系统用户部署使用
emcie-co/parlant
parlant 是一个专注于确保大型语言模型(LLM)代理严格遵守预设行为规则、适用于真实场景并能快速部署的智能代理框架。
- 通过自然语言定义明确的客户交互流程和行为准则,保证代理在每个环节表现一致
- 支持绑定外部工具和 API,实现特定事件触发的数据获取与操作
- 提供领域适配能力,可教导代理专业术语并生成个性化回复
- 使用模板化响应消除幻觉现象,确保回答风格统一且可靠
- 内置可解释机制,帮助开发者理解规则匹配及执行过程,提高透明度与调试效率