未分类

姑且零乱姑且流水

又是一个不知道说些什么的日子。 近几天外出参加一个会议,虽说不是国际顶级会议,不过参加之后的收获反倒是好像比国际顶级会议还多些。 谈到国际顶级会议,就想到上次参加icaij的经历,上次和那个绕着舌头的日本人沟通,虽然看其墙展,其好像是使用EM算法来分析amazon 众包中某一份任务的标注的有效性,明明看其工作就是很有意思,可是干看着,鸡同鸭讲,怎么也听不懂其圈着舌头的日式英语。 好歹mla2014没有这样的现象。 这会先不谈干货,干货我现在也记不下来,等那边把PPT都放出来了,参考着ppt再回顾那几位大咖位都在干什么。 说是大咖,其实也不全是,第二天下午参会的俞扬,和第一天的大咖,比如马毅,相比就完全不是一个量级的,

Python 之gil之二

之前说到在gil的控制下,如果一个cpu富集(这个词可能不是标准译法,英文cpu bound,指运行时间主要由cpu运算的时间来决定的任务)线程获取了gil锁,然后它会一直运行下去,为了使得其他的线程也能够运行,每次过100个tick,线程会阻塞自身,然后由python解释器来进行一次check。查看是否有其他的线程在等待获取gil。 首先来谈这个tick,这个tick其实是一定的步数的字节码,如果使用python提供的反汇编模块dis.dis来对python代码进行反汇编将之转变成机器码的话,可以看到 如图所示,这些字节码分为四个tick (这里有一点自己现在不明白,这个tick到底是按照什么规则来分配的,为什么有的tick比较长,而有的tick比较短,甚至---)

归人

地铁里清醒的日光灯 甜美的女声 换乘站客流较多 穿堂而过的风 粒子中蜷曲的第十根弦 被露打湿的声音 午夜犹自清瘦的逻辑 真理在被证明的时候 被团成废纸 扔了一地 困倦是解不开的钮扣 七零八歪的梦

Python 之gil 之一,gil初窥见

昨天做ppt,并没有来得及写百天,今天下午终于把准备了一段时间的gil讲完了。 效果一般。 自己一段时间之内都有一个毛病,做分享或者演讲,经常是先做加法再做减法,先疯狂地阅读极多地文章,然后画一张巨大的导图,然后在在导图的基础上反思压缩,最后提炼出一篇文章或者ppt出来。 这样有一个很大的问题的。 自己一向比较贪婪,对于信息,对于书籍,对于知识,总是想囤积,收取,榨干。 所以经常做加法做到最后一刻,却不留下足够的时间去反思去消化,最后自己勉强明白了,告诉别人的时候却还是夹生饭。 Gil全称global interpreter

星云奖之二之DNN(深度神经网络)

写下这个题目,心中其实很惭愧,整天拿着老本行在外招遥撞骗,但是其实在这个老本行中却并没有什么过人的建树。 DNN自己只是粗通,曾经在某俱乐部讲过DNN比较底层的递归玻尔兹曼机RBM,这个模型应该是当下DNN中最火的模型之一了,当年hinton老爷子提出对比散度算法的时候,看那篇著名的论文,其中还没有多么大的野心,只怕老爷子当年也不一定能够预想到自己打开了一扇通向未来之门。 然而当年讲完RBM之后,到现在各种原因,对深度学习的理解一直就停留在那个时间。 现在大体回忆起来。大概只能轻度地科普一下。 人类的大脑皮层分为6层,DNN全称深度神经网络,和之前的神经网络相比,在神经网络的层数可以搭建的更多。 之前的神经网络主要通过反射传播算法来进行计算,在那个年代,我们大体还算知道计算出来的是什么东西,使用最后的输出层输出的预测值与真实值之差,反向向之前的神经元层次进行求导运算,

Episode

00:00:00 00:00:00