10月9日,港中个港中文贾佳亚团队宣布联合MIT发布超长文本扩展技术LongLoRA:只需两行代码、文贾一台8卡A100机器,佳亚便可将7B模型的团队文本长度拓展到100k tokens,70B模型的联合文本长度拓展到32k tokens。在此之前,布全本以AI社区著名的球首开源大语言模型为例,LLaMa支持2k tokens的长文文本长度、Llama2也仅仅支持4k tokens的模型文本长度。LongLoRA的港中个发布,令全球大语言模型对话缺陷第一次得到解决。文贾同时,佳亚该研究团队还基于LongLoRA技术,团队发布了全球首个拥有70B参数量的联合长文本对话大语言模型LongAlpaca。目前,布全本LongLoRA技术和LongAlpaca已开源,并获得热烈反响,迅速登上hugging face热榜第一、paperwithcode热度第一,Github全部python项目热度第五,github stars也一周内成功破千。