Loading...
新导航网
学习导航运营导航摸鱼导航音乐导航办公导航
  • 首页
  • 投稿
  • 排行榜
    • 首页
    • 投稿
    • 排行榜

    微调

    共 3 篇网址
    排序
    发布更新浏览点赞
    乾元BigBangTransformer

    乾元BigBangTransformer

    BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
    04,9990
    # AI行业大模型GPT架构# 多语言支持# 多领域应用
    Llama 3.2

    Llama 3.2

    在图像理解和文本处理任务上展现出卓越的性能,并通过定制化微调和本地部署,推动了AI技术的开放性和可访问性。
    03,8150
    # AI开源项目AI大模型# 图像理解# 开源模型
    K2-上海交通大学

    K2-上海交通大学

    地球科学的开源大预言模型,首先在收集和清理过的地球科学文献(包括地球科学开放存取论文和维基百科页面)上对 LLaMA 进行进一步预训练,然后使用知识密集型指令调整数据(GeoSig...
    02,8430
    # AI行业大模型代码共享# 地球科学# 基准测试
    没有了

    Copyright © 2025 导航网-DH.WANG╎网站地图╎用户协议╎免责声明

    免责声明:本站上所有网站资料、信息、资源、广告等均取之于互联网,仅供参考。其真实性、准确性,合法性,均与本站无关,本站不承担任何相关法律责任。
      
    反馈
    让我们一起共建文明社区!您的反馈至关重要!
    网址
    网址文章软件书籍