JavaShuo
欄目
標籤
2019iclr
2019iclr
全部
[2019ICLR W](模型壓縮_剪枝_L0正則化)LEARNING SPARSE NEURAL NETWORKS THROUGH L0 REGULARIZATION
2020-01-31
2019iclr
iclr
模型
壓縮
剪枝
l0
正則
learning
sparse
neural
networks
regularization
正則表達式
[2019ICLR W](模型壓縮_剪枝_彩票理論)The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks
2020-01-31
2019iclr
iclr
模型
壓縮
剪枝
理論
lottery
ticket
hypothesis
finding
sparse
trainable
neural
networks
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。