# 深度学习工具箱
设计、训练和分析深度学习网络
深度学习工具箱提供了一个用于通过算法、预训练模型来设计和实现深度神经网络的框架。您可以使用卷积神经网络(ConvNet、CNN)和长短期记忆 (LSTM) 网络对图像、时间序列和文本数据执行分类和回归。其组成包括:函数逼近、聚类和控制,深度学习自定义训练循环,图像深度学习,使用时间序列和序列数据进行深度学习等功能函数。
函数库:TyDeepLearning
提示
使用本函数库之前,需要通过import TyDeepLearning或using TyDeepLearning来实现加载。
关于import和using的详细用法,请参见模块的命名空间管理。
# 使用说明
# 环境要求
| 软件环境 | 版本 |
|---|---|
| Linux | Linux-x86_64、Linux-aarch64 |
| Windows | Windows-x64 |
| 硬件环境 | 说明 |
|---|---|
| 处理器 | 大于 3 个 |
# 依赖环境手动安装
依赖环境手动安装适用于以下场景:
- Syslab 安装未勾选安装 MindSpore 时
- 使用预训练网络及图神经网络功能模块时(依赖 Pytorch)
在 Julia 中,运行以下命令,手动安装依赖环境
using TyDeepLearning
envinit()
Successful
提示
如果出现 HTTP 报错,检查网络并重新运行上述命令。
# 离线操作步骤
预训练网络参数及网络结构文件需要从云端下载,在网络通畅的时候,函数会自动从云端下载参数文件。
如无网络情况下,可提前使用 export_dl_artifacts 下载深度学习工具箱的项目工件,下载完成后,将指定路径下的artifacts 合并至目标设备的 ~/.julia/artifacts,亦可正常运行。
# 函数逼近、聚类和控制
使用浅层神经网络执行回归、分类和聚类,以及对非线性动态系统建模
| 类别 | 简介 |
|---|---|
| 函数逼近和非线性回归 | 创建神经网络来归纳示例输入与输出之间的非线性关系 |
| 自编码器 | 使用自编码器神经网络执行无监督的特征学习 |
| 自组织映射 | 确定样本聚类的原型向量、样本分布以及聚类之间的相似性关系 |
# 深度学习自定义训练循环
自定义深度学习训练循环和损失函数
| 类别 | 简介 |
|---|---|
| 深度学习运算 | 深度学习运算 |
# 图像深度学习
使用预训练网络快速学习新任务或从头开始训练卷积神经网络
| 类别 | 简介 |
|---|---|
| 针对图像的数据预处理 | 管理和预处理深度学习数据 |
| 构建网络 | 构建神经网络,包括添加、移除、替代层等操作 |
| 网络层 | 各种网络层,包括卷积层、激活层、归一化层等 |
| 预训练网络 | 使用预训练网络快速学习新任务 |
| 训练网络 | 对神经网络进行训练 |
| 预测 | 利用已训练的网络进行预测 |
| ONNX模型 | 导入并修改ONNX格式模型 |
# 时间序列深度学习
创建和训练用于时间序列分类、回归和预测任务的网络
| 类别 | 简介 |
|---|---|
| 网络层 | 对时间序列和序列数据进行处理的网络层 |
# 图神经网络
创建,训练并最终保存图神经网络模型
| 类别 | 简介 |
|---|---|
| 图卷积网络 | 构建图卷积神经网络,训练并保存 |