Nystrom注意力(nystrom-attention)
来自纸张Nyströmformer的Nyström自我注意力的实施
来自纸张Nyströmformer的Nyström自我注意力的实施
在Pytorch的Hourglass Transformer实施Google和OpenAI
Pytorch的贝叶斯神经网络
SPTS V2的官方实施:单点文本斑点
在Pytorch和JAX中实施Gateloop变压器
远程的实施:扩展LLM上下文窗口超过200万个令牌纸
这是类似变压器模型的存储库,包括变压器,GPT,BERT,VIT等等,在我进入迷人的深度学习领域的旅程中,还可以实现更多。
使用GPU/核心外计算中的Python中的模块化计算成像。
访问Sulie Foundation型号的时间序列预测📈
纸质的官方实施“用稀疏的激光雷达提高自我监督的单眼深度学习”
深度学习应用程序的I/O基准
Babyagi-🦙:增强了美洲驼模型(本地运行100%)和持续记忆,并基于BabyCatagi的智能互联网搜索,并基于Privategpt将文档嵌入到Langchain中
GPT,但仅由MLP制成
狗和猫图像分类器与深度学习
Securade.ai Hub-一个基于生成AI的电脑视觉的Edge平台,可连接到现有的CCTV摄像机并使它们聪明。
在任何神经网络上使用Pytorch的易于使用的pytorch包装器
蛋白质产生的DDPM + IPA(不变点注意)的实施,如纸张中概述的“蛋白质结构和序列产生具有doivariant deno的扩散概率模型”
❓库里:与AI代理的自动化和严格的科学实验