2019
- 一月 - 3D 姿势估计
姿势估计器将视频作为输入,并输出与视频中存在的人类个体的姿势相对应的图形。
创建可靠且实时的 3D 姿势估计器的当前困难包括这样的事实:几乎没有训练数据,以及必须考虑遮挡的事实。例如,如果特定身体部位被阻挡而不能看到,则姿势估计器仍必须能够从身体其余部分的位置推断出其位置。
AIDevLog
项目地址:https://github.com/clone95/virgilio
目前为止: [7,128] star [1,303] fork,希望你看到之后能给它添加一个 star 。
这个项目首次提交在 2019 年 3 月 12 日,原名叫https://github.com/clone95/Data-Science-Study-Paths-March-2019,一个月的时间就有 6k+ 个 star,经常排在 http://github.com/explorer 的前几位。当然最近被榜单被 996icu 占了。
最基本的seq2seq模型包含一个encoder和一个decoder,通常的做法是将一个输入的句子编码成一个固定大小的state,然后作为decoder的初始状态(当然也可以作为每一时刻的输入),但这样的一个状态对于decoder中的所有时刻都是一样的。
attention即为注意力,人脑在对于的不同部分的注意力是不同的。需要attention的原因是非常直观的,比如,我们期末考试的时候,我们需要老师划重点,划重点的目的就是为了尽量将我们的attention放在这部分的内容上,以期用最少的付出获取尽可能高的分数;再比如我们到一个新的班级,吸引我们attention的是不是颜值比较高的人?普通的模型可以看成所有部分的attention都是一样的,而这里的attention-based model对于不同的部分,重要的程度则不同。
One-Hot编码,又称为一位有效编码,主要是采用位状态寄存器来对个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候只有一位有效。
在实际的机器学习的应用任务中,特征有时候并不总是连续值,有可能是一些分类值,如性别可分为“male”和“female”。
Word2vec,为一群用来产生词向量的相关模型。这些模型为浅层双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。
训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。该向量为神经网络之隐藏层。
Word2vec依赖skip-grams或连续词袋(CBOW)来建立神经词嵌入。Word2vec为托马斯·米科洛夫(Tomas Mikolov)在Google带领的研究团队创造。该算法渐渐被其他人所分析和解释。