Deeplearning4j
Community ForumND4J JavadocDL4J Javadoc
ZH 1.0.0-beta6
ZH 1.0.0-beta6
  • 核心概念
  • 开始
    • 快速入门
    • 速查表
    • 示例教程
    • 初学者
    • Eclipse贡献者
    • 从源码构建
    • 贡献
    • 基准测试准则
    • 关于
    • 发行说明
  • 配置
    • GPU/CPU设置
    • CPU 与 AVX
    • 内存管理
    • Maven
    • SBT/Gradle和其它构建工具
    • cuDNN
    • 快照
    • 内存工作间
  • ND4J
    • 快速入门
    • 概述
  • SAMEDIFF
    • 变量
    • 操作
    • 添加操作
  • 调优与训练
    • 故障排查
    • 可视化
    • 评估
    • 迁移学习
    • 早停
    • T-SNE数据可视化
  • 分布式深度学习
    • 介绍与入门
    • 在Spark上使用DL4J:操作指南
    • 技术说明
    • Spark数据管道指南
    • API参考
    • 参数服务器
  • Keras导入
    • 概述
    • 入门
    • 支持功能
      • 正则化器
      • 损失
      • 初始化器
      • 约束
      • 激活
      • 优化器
    • Functional模型
    • Sequential模型
  • ARBITER
    • 概述
    • 层空间
    • 参数空间
  • DATAVEC
    • 概述
    • 记录
    • 概要
    • 序列化
    • 转换
    • 分析
    • 读取器
    • 执行器
    • 过滤器
    • 运算
  • 语言处理
    • 概述
    • Word2Vec
    • Doc2Vec
    • SentenceIterator
    • Tokenization
    • Vocabulary Cache
  • 模型
    • 计算图
    • 多层网络
    • 循环神经网络
    • 层
    • 顶点
    • 迭代器
    • 监听器
    • 自定义层
    • 模型持久化
    • 动物园用法
    • 激活
    • 更新器
  • 移动端
    • Android概述
    • Android先决条件
    • Android分类器
    • Android图片分类器
  • FAQ
  • 新闻
  • 支持
  • 为什么要深度学习?
Powered by GitBook
On this page
  • Keras 模型导入: 支持的功能
  • 层
  • 噪声层
  • 层包装器
  • 失损
  • 活激
  • 初始化器
  • 正则化器
  • 约束
  • 优化器

Was this helpful?

Edit on Git
Export as PDF
  1. Keras导入

支持功能

支持的Keras功能。

Previous入门Next正则化器

Last updated 5 years ago

Was this helpful?

Keras 模型导入: 支持的功能

鲜为人知的事实:DL4J的创始人,Skymind,在我们的团队中拥有前五名的Keras贡献者中的两个,使其成为继Keras的创始人Francois Chollet之后对Keras的最大贡献者。 虽然并非DL4J中的每个概念在Keras中都有等效的概念,反之亦然,但是许多关键概念可以匹配。将Keras模型导入DL4J是在我们的 模块中完成的。下面是当前支持的特性的综合列表。

  • 层

  • 损失

  • 激活函数

  • 初始化器

  • 正则化器

  • 约束

  • 度量

  • 优化器

层

将模型映射到DL4J层是在模型导入的层子模块中完成的。该项目的结构随意地反映了Keras的结构。

核心层

  • ✅

  • ✅

  • ✅

  • ✅

  • ✅

  • ✅

  • ✅

  • ✅

  • ✅

  • ❌ ActivityRegularization

  • ✅

  • ✅

  • ✅

  • ✅

卷积层

  • ❌ SeparableConv1D

  • ❌ Conv3DTranspose

池化层

本地连接层

循环层

  • ❌ GRU

  • ❌ ConvLSTM2D

嵌入层

合并层

  • ✅ Add / add

  • ✅ Multiply / multiply

  • ✅ Subtract / subtract

  • ✅ Average / average

  • ✅ Maximum / maximum

  • ✅ Concatenate / concatenate

  • ❌ Dot / dot

高级激活层

  • ✅ ELU

归一化层

噪声层

层包装器

  • ❌ TimeDistributed

失损

  • ✅ mean_squared_error

  • ✅ mean_absolute_error

  • ✅ mean_absolute_percentage_error

  • ✅ mean_squared_logarithmic_error

  • ✅ squared_hinge

  • ✅ hinge

  • ✅ categorical_hinge

  • ❌ logcosh

  • ✅ categorical_crossentropy

  • ✅ sparse_categorical_crossentropy

  • ✅ binary_crossentropy

  • ✅ kullback_leibler_divergence

  • ✅ poisson

  • ✅ cosine_proximity

活激

  • ✅ softmax

  • ✅ elu

  • ✅ selu

  • ✅ softplus

  • ✅ softsign

  • ✅ relu

  • ✅ tanh

  • ✅ sigmoid

  • ✅ hard_sigmoid

  • ✅ linear

初始化器

  • ✅ Zeros

  • ✅ Ones

  • ✅ Constant

  • ✅ RandomNormal

  • ✅ RandomUniform

  • ✅ TruncatedNormal

  • ✅ VarianceScaling

  • ✅ Orthogonal

  • ✅ Identity

  • ✅ lecun_uniform

  • ✅ lecun_normal

  • ✅ glorot_normal

  • ✅ glorot_uniform

  • ✅ he_normal

  • ✅ he_uniform

正则化器

  • ✅ l1

  • ✅ l2

  • ✅ l1_l2

约束

  • ✅ max_norm

  • ✅ non_neg

  • ✅ unit_norm

  • ✅ min_max_norm

优化器

  • ✅ SGD

  • ✅ RMSprop

  • ✅ Adagrad

  • ✅ Adadelta

  • ✅ Adam

  • ✅ Adamax

  • ✅ Nadam

  • ❌ TFOptimizer

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

✅

deeplearning4j-modelimport
Dense
Activation
Dropout
Flatten
Reshape
Merge
Permute
RepeatVector
Lambda
Masking
SpatialDropout1D
SpatialDropout2D
SpatialDropout3D
Conv1D
Conv2D
Conv3D
AtrousConvolution1D
AtrousConvolution2D
SeparableConv2D
Conv2DTranspose
Cropping1D
Cropping2D
Cropping3D
UpSampling1D
UpSampling2D
UpSampling3D
ZeroPadding1D
ZeroPadding2D
ZeroPadding3D
MaxPooling1D
MaxPooling2D
MaxPooling3D
AveragePooling1D
AveragePooling2D
AveragePooling3D
GlobalMaxPooling1D
GlobalMaxPooling2D
GlobalMaxPooling3D
GlobalAveragePooling1D
GlobalAveragePooling2D
GlobalAveragePooling
LocallyConnected1D
LocallyConnected2D
SimpleRNN
LSTM
Embedding
LeakyReLU
PReLU
ThresholdedReLU
BatchNormalization
GaussianNoise
GaussianDropout
AlphaDropout
Bidirectional