我们在训练神经网络模型时,最常用的就是梯度下降,这篇博客主要介绍下几种梯度下降的变种(mini-batch gradient descent和stochastic gradient descent),关于Batch gradient descent(批梯度下降,BGD)就不细说了(一次迭代训练所有样本),因为这个大家都很熟悉,通常接触梯队下降后用的都是这个。这里主要介绍Mini-batch gradient descent和stochastic gradient descent(SGD)以及对比下Batch gradient descent、mini-batch gradient descent和stochastic gradient descent的效果。

阅读全文 »

本来在一心折腾基于Hexo的自建博客,恰好室友提出这样一个需求:在自己的作品集里放一个二维码,扫一下就可以转到一个网页播放自己的视频,但是又要求不能有广告,因此商业性质的视频网站都不能使用。手头刚好有一个AWS的服务器,于是决心尝试一下这类还没碰过的技术。

Web视频流媒体服务器主要应该满足以下几个功能:

  1. 提供http服务
  2. 具备传输视频流的能力
  3. 可以在浏览器中播放视频
阅读全文 »

作为对老师推荐书目《人类的终极命运——从旧石器时代到人工智能的未来》的阅读笔记……对我而言是一种备忘和阅读输出,对读者而言多多少少也是一种想法的交流和讨论,而非仅仅是对枯燥历史的教科书式搬运。

阅读全文 »

交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便。最近开始研究起对抗生成网络(GANs),用到了交叉熵,发现自己对交叉熵的理解有些模糊,不够深入。遂花了几天的时间从头梳理了一下相关知识点,才算透彻的理解了,特地记录下来,以便日后查阅。

阅读全文 »

这是我的第一篇blog

测试图片插入

0%