| 文章要像女孩子的裙子一样,短点,短点,再短点

文章 19

访客 2432

声望 81

第12名

Blog

word embedding

搞NLP,这个概念是逃不掉的。Word Embeding。如果直接翻译过来,就是词嵌入。感觉比之前更加糊涂了。

Batch, stochastic and mini-batch

Batch, stochastic and mini-batch机器学习里面,经常遇到训练集大小的问题。这几个词就经常冒出来,Batch,stochastic and mini-batch

Tensorflow白皮书(完整中文)

不知道为啥网上都只有前面的翻译,5.2以后面的翻译,所以献丑把后面的也翻译翻译,其中第六点经验其实还是有点用的

汉语 Word Embeddings 预训练 Pretrain 数据

https://sites.google.com/site/rmyeid/projects/polyglot

查准率和查全率

其实这个问题比较简单,症结不在于正例多,而是验证标准。一般情况下,大家都在用accuracy作为验证指标。比如经常说,我的模型,在测试集上的acc是98%,所以很厉害。

求导的泛化

机器学习的过程中,其实经常用到求导。而机器学习的数据一般都是Tensor(张量)输入。所以针对Tensor的求导是比较重要的知识。

Tensorflow的基本使用

有朋友经常问我,Tensorflow究竟是怎么回事,为什么那么反人类,先要设定很多东西,最后才有个session。而且在python中,大家都习惯于交互式编程。Tensorflow的那种方式更加让人不明白了。

如何在服务器上搭建一个Anaconda环境

wget https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh

用Tensorflow实现CapsNet

https://github.com/ageron/handson-ml/blob/master/extra_capsnets.ipynb

Tensorflow如何使用GPU加速学习

首先下载CUDA https://developer.nvidia.com/cuda-80-ga2-download-archive然后下载 cuDNN https://developer.nvidia.com/rdp/cudnn-download (这个还要先注册开发者)最后下载 Visual Studio Community 2015 with Update 3 (English) https://my.visualstudio.com/Downloads?pid=20867个g,下载以后自定义安装只要6个g,是不是觉得很赚

Tensorflow中的GradientDescentOptimizer 和AdamOptimizer 的比较

常用tensorflow的朋友一定对这两个优化器不陌生。那么这两个优化器究竟差异在哪里,我什么时候该用GradientDescentOptimizer,什么时候该用AdamOptimizer呢。

使用sklearn分割数据集

比如用np生成一个和数据集一样大小的列表mask,然后mask>0.8,这样做好以后,就能区分开来了。不过既然有工具,我们就不用这种方式了。
    1 2

 ©2017 studyai.com 版权所有

关于我们