
魁蚶的做法是一种深度学习中的表示学习方法,它可以用来将复杂的输入数据映射到一个低维特征向量上。它通过一个“魁蚶”神经网络(Auto-Encoder Network)来实现,该神经网络由两部分构成,一部分是用于将原始数据压缩成低位表征的“encoder”;另一部分是用于将压缩后的特征重新还原回原始形式的“decoder”。通常情况下,encoder和decoder之间会选择不同大小的隐藏层作为中间步骤。在这样的情况下,encoder会逐步减少原始数据中信息量、而decoder会逐步还原特征信息。最后形成了一个仅包含关键信息而又使用有限参数表达出来的低位表征。