人到三十

或者是因为这个年纪更好, 却也更老了。 所以今年的生日过得非常的沉默, 除了两个朋友之外,其他人也都不记得了。 当然自己最近这种人畜勿近的样子, 记得和不记得也都一样。 时间笔记记到第十二篇, 确实感觉时间感比之前好了很多, 一天能做多少事情,一周能做多少事情。 前阵子有次在路上冥想,觉得时间笔记就是一种在时间中的冥想,时间变成一个连续体, 不再有一天天的间隔, 只有一个时间段一个时间段的区分。 在记时间笔记的过程中, 过去未来都被整合到了当下。 就像在冥想的时候, 至远和至近都被整合成身体的每一丝触动。 整合自己的方向是进一步的离弃。 手术, 工作, 感情,和家人的关系, 下一步的打算。 周六和母亲大吵了一架,表达了一些以为这辈子都不会表达的情绪。 依然是主动的离弃在时间之外, 不想被任何人看到,即自怜的自卑, 又可憎的傲慢。 有些若存若亡的故事, 若断若续的感情。 还好, 慢慢适应和这些相处。破碎和分裂的自己, 两个名字,跑反式的生活,稿子还没背熟时的舞台。 更加的会因为一时的情绪而表现的更好或是更坏。 更加的放肆和直接。 分明是一切都晦暗阴明的时刻。

Continue reading …

VIM latex书写环境配置

用vim有一个好处, 就是任何的编辑工作全部可以用它来解决, 一个用IDE的人在学一门语言的时候第一反应是找一个这门语言的IDE,而用vim的人在学一门语言的时候第一反应是去github找几个最好用的插件。 记录一下自己的vim环境配置。 首先说下背景, 电脑为mac环境, 使用brew进行包管理。 vim为brew安装的macvim, 版本为8.0.136, 使用vim-plug来进行插件管理。 配置latex环境 使用brew cask来安装latex, 我选择的是mactex发行版的精简版, 也就是basictex. 好处是比较小只有70M,和完整版的2G精简太多, 坏处是很多包没有, 只能在需要的时候动态下载。 brew cask install basictex 注意使用这个命令安装后, 其实只是完成了basictex软件包的清理和下载工作, 一般下载到了类似 /usr/local/Caskroom/basictex/2017.0607/mactex-basictex-20170607.pkg 这样的地方,具体可以使用 mdfind -name mactex-basictex 来查看。 需要再进入此下载文件夹, 双击进行安装。中间需要输入密码。 安装完成。 由于这个安装包是精简版, 因此在稍后编译latex的时候会出现有些包缺失的时候, 那么就需要在缺失的时候自动地下载安装, 因此需要安装一个texliveonfly程序。其作用和latex一样进行编译, 但是与latex不同的是,当存在包缺失的时候, 会自动进行下载。 sudo tlmgr install texliveonfly 这就完成了latex环境的配置。 配置vim 首先安装vimtex插件. 在vimrc的plug列表区加入 Plug ‘lervag/vimtex’, {‘for’: [‘tex’, ‘plaintex’, ‘bst’]} 因为我的插件比较多, 因此选择动态加载,仅当文件类型是tex时, 才加载这个插件。 加入vimtex的插件配置: “tex preview config let g:texflavor = ‘latex’ let g:texindentitems = 0 let g:TexDefaultTargetFormat = ‘pdf’ let g:TexCompileRulepdf = ‘pdflatex -src-specials -synctex=1 -interaction=nonstopmode pdf_mode = 1; recorder = 1; 由于系统自带的pdf浏览器preview无法动态地更新latex生成的pdf内容,因此使用pdf-expert软件来代替, 安装pdf-expert后,整个工作就完成了。 测试 下载一个示例latex文件: wget https://www.apptic.me/blog/sample-tex.zip unzip sample-tex.zip 使用vim打开sample.tex, 敲\ll来触发即时生成pdf。 就可以好好地写latex了。

Continue reading …

Word embedding综述与回顾(之一)—word2vec模型与PMI分解

适合读者:对word2vec有概念上的了解, 希望有细节上的掌握以及更深一步理解的研究人员, 工程师。 早先和人聊天,曾经聊过一次自然语言方面深度学习方法的发展和影响, 虽然从word2vec之外,nlp的神经网络方法也已经成为业界的主流, 但是与图像, 语音等领域相比, 始终还是差点意思,christopher maning在CS224N中提到语言是不同于图像, 语音的信号系统, 可以认为是一种符号\类别\离散系统。 想想也是,一般来讲都认为, 语言是人类独有高级认知系统, 语言之秘似乎就代表着人工智能中最艰深的问题。 在我自己看来,深度学习在自然语言领域最重大的贡献,word2vec算一个, 这个工作直接给后续一系列的任务奠定了基础, 甚至说是起到了改变研究范式的作用也不为过。 seq2seq算一个, 这个工作直接让机器翻译等等序列标注问题有了一个能用的框架, 而且将把这个问题推向了应用化。 除此之外, 虽然领域中各种模型层出不穷, 但是论影响力的广度和深度, 以及从思想上来讲的深刻性, 似乎都差着一星半点。 最近刷emnlp, 看到emnlp2017又有一些很有趣的在word embedding上作文章的paper, 于是就想把这个方向的一些成果和研究梳理一下。 word2vec. word2vec由mikilov于2013年提出, 虽然之前已经有了一些关于词的向量表示的工作, 例如使用svd分解, 但是其效果都不太好。 word2vec包括两个算法, skip-gram和CBOW, 其基本思想是一个词的意思, 可以由这个词的上下文来表示。 相似词拥有相似的上下文, 这也就是所谓的离散分布假设(distributional hypothesis)。 术语定义, 例如一句话, “I want to go home”, 中心词为”to”, 上下文词为”I”,  “want”,  “go”, “home”。 对于skip-gram来说, 我们是通过中心词来预测上下文词的概率。对于CBOW来说, 我们是通过上下文词来预测中心词的概率 。 CBOW 初始化 拿到一篇文章, 先扫一篇文章, 建立辞典, 然后将辞典中的所有词进行初始化, 初始化为一个N维向量(实际使用中, 300到500不等), 这样得到一个d * |V| 的一个矩阵, 重复这个操作, 得到一个同样size, 但是不同值的矩阵。这是因为在word2vec中, 对于输入的embedding和输出的embedding使用不同的编码, 由于同一个词, 即可能是上下文, 又可能是中心词, 故而做此处理。 训练 输入: 以相临的5(即所谓的滑动窗口, 窗口大小为超参数 ,可设)个词为一个样本, 那么上下文就是第0, 1, 4, 5个词在词典中的索引, 假设这个索引为7, 12, 6, 8. 输出, 一个|V|* 1的概率向量, 每个位元表示中心词正好是这个辞典中这个位置的词的概率。例如在辞典中第三个词为”absorb”, 那么p3=0.017, 就表示模型认为中心词为absorb的概率为0.017. 过程,拿到输入上下文的索引后,在输入embedding矩阵中查表, 得到第[7, 12, 6, 8]列,于是我们得到了四个向量,然后将这四个向量进行平均, 得到一个context vecter. 再取到输出embedding矩阵中中心词的向量, 在这个例子中, 假设中心词”to”在辞典中的第1487位, 那么就取输出embedding矩阵中第1487列。 求这个向量和content vector的乘积, 将这个乘积在所有词上做softmax. 如上图所示, 其中m为2, 也就是滑动窗口size的一半减1,wc代表中心心词, 第一行是指, 我们需要在给定上下文的情况下,最小化中心词的条件概率。 第二行, 我们将上下文使用输入embedding矩阵向量化并求平均, 将中心词使用输出embedding矩阵向量化。 第三行, 表示其在整个辞典上建模的softmax概率。 回顾一下整个思想, word2vec的想法是, 使用一个(准确来说是两个)高维向量空间来对词进行建模。 每个词即为向量空间中的一个点。 使用向量的dot product来衡量两个点之间的距离, 然后根据这个距离来最大化条件概率。 在这个模型中, 两个embedding矩阵为参数, 最后求一个最大似然, 也就是最小化其negative log likelihood。 skip-gram skip-gram模型与CBOW相似,不同在于, skip-gram是使用中心词来预测上下文的词。 惟一值得注意的是, 中心词只有一个, 而上下文的词有四个, 那么如何建立这种一个对四个的对应关系, 在这里mikolov使用的是朴素贝叶斯假设, 也就是认为在给定中心词的情况下, 上下文词之间是相互独立的。 于是我们有这样的结果: negative sampling 上面两个公式在实际计算的时候有一个问题,因为最后我们是对整个辞典上求softmax, 那也就意味将, 每过一个样本, 我们都要在整个辞典上算一次全部词向量和当前中心词的点积。 这个计算量太大了。 因此, 在论文中, 使用negative sampling这样一个技巧来处理这个问题。 其思想就是, 我们做一个负样本, 可以理解成随机语料, 于是每次训练的时候, 我们就有一个正样本和若干个负样本,我们让正样本的预测概率尽可能大, 而让负样本预测概率尽可能小, 通过负样本的引入, 将本来建立在整个辞典上的一个|V|分类问题, 转换成一个建模在正负样本上的一个二分类问题。 具体来说: 如上图, 当D等于1时, 即样本来自于真实语料, 当D等于0时, 样本来自于随机语料, 我们要使如果样本是真实样本, 那么概率就尽可能大, 如果样本来自随机语料, 那么概率就尽可以小(也就是D=0尽可能大) 这种转换中中涉及到一个很有意思的点, 就是softmax多分类概率和sigmoid二分类概率的等价性, softmax即是sigmoid, 参见CS229. 在生成负样本时, 我们使用Pn(w), 也就是决定要不要sample出某个词作为负样本,使用Pn(w)=freqency^(3/4) 即以词的unigram频率的3/4次方。 其意图是: 于是像is这样的高频词,在处理之后, 生成的概率还是较高, 但是变化不大, 而像bombastic这样的低频词, 其生成的概率就提高了三倍之多。 word2vec还使用Hierarchical Softmax来解决softmax计算量过大的问题, 思路是将词典挂在一棵哈夫曼树的叶结点上, 然后将一个词的softmax, 转换为这个词与这棵树上从根结点到词的父结点每个结点向量的点积的方向加权的sigmoid乘积。 这里就不多说了。 word embedding与矩阵分解的内在一致性 2014年, Yoav Goldberg在其《Neural Word Embedding as Implicit Matrix Factorization》 分析得出结论, word2vec其实质就是对语料的word-context的PMI矩阵进行分解 ,让我们来仔细看看这个过程: 上图是skip-gram同时进行negative-sampling之后的损失函数, 其中w为中心词, c为上下文, 这个损失函数是定义在整个语料上的(也就是跑完一个epoch), 因此要对中心词和上下文都进行求和符运算,k是指对于一个中心词进行多少次negative-sampling, 生成多少个负样本,Cn为negative-sample出来的负样本的上下文词。#(w, c)是指一个(w, c)的词对,在语料中出现的次数。 假设在真实语料由三句话组成, 分别是”what i am”,[…]

Continue reading …

我是堂吉诃德—-同名话剧观后

最近写东西每每写到一半, 无法下笔。 知道那些想说的话没人在意。 也知道人在时间中, 渺小如尘埃。 世界自有它运转的法则。有些东西, 现在被践踏着, 过去被践踏过, 将来, 还将继续被践踏。 近三个月来第一次出门看话剧。 朋友推荐了一部堂吉诃德。 早年记得课本中提到这本书时一句带过, 说这本书的主旨是讽刺当时年轻人沉没于不切实际的骑士小说云云。 然而当时就不以为然,从来不信一本名著, 而且只用来讽刺一群人的名著会具有这么大的影响。 大致了解情节后更是深深唏嘘。 那是只有少年, 面临着这个世界不可战胜之物才会有的悲慨。 从大话西游到悟空传, 从九把刀, 今何在到周星驰, 堂吉诃德的故事一直被变了形象不断地讲述着,然后一群群的堂吉诃德, 不断地向着硕大无朋的风车发起攻击。 自然胜少败多。 有个朋友, 网络ID叫, 没有桑丘的堂吉诃德。 今天看剧, 才细细玩味这个名字。 起得太妙。 剧中杜西尼亚说, 你不是堂吉诃德, 堂吉诃德有桑丘, 而你没有。 甚至桑丘本人也对堂吉诃德说, 这本书应该改名叫桑丘传,没有了桑丘,吉诃德早在第一个回合就被搞死了。 他说的自然没有错, 桑丘是那个清醒的人, 虽然清醒却选择和吉诃德一起发疯。没有桑丘,吉诃德根本走不到风车前面。 然而这本书仍然叫做堂吉诃德, 归根到底, 是那个疯子一样的人纯洁地对每个妓女表达尊敬, 为每个罪人奋起战斗, 向着沉默阴暗, 无可匹敌的风车发起进攻。 如吉诃德所言, 你们真的不是田野中么, 你们或者行走在愚味的田间小路, 或者奔跑在无知的康庄大道, 惟有我,行走在狭窄而危险的真理小径上。 杜西尼亚 我知道你行侠是为是传扬我的名, 然而作为一个女人, 我的侠士离开我去世界闯荡, 如果时间较短, 那么无妨, 可是长时间的分离, 你怎知我向往的却是两个人平凡的相处, 亲密无间的平凡幸福。 护士坐在病人的床上。 杜西尼亚坐在吉诃德的身旁。 此前, 有个不可言说的名字, 在给端传媒的采访中, 提到妻子,突然哽咽。 时空倒错。 台上台下, 戏里戏外。 谁分得分明。 有的人死了, 他还活着, 有的人活着, 他已经死了。 我的丰功伟绩,值得浇铸于青铜器上,铭刻于大理石上,镌于木板上,永世长存。当我的这些事迹在世上流传之时,幸福之年代和幸福之世纪亦即到来。 懂的人知道我在说什么。

Continue reading …

最后一篇

当然不是博客的最后一篇, 只是最后一次写一个人。 昨天做了一个梦, 梦里体验到对对方的感情, 失望, 心凉, 戒惧, 被算计后的释然。 梦不说明现实, 只是说明自己的心境变化。 对这个人, 没有什么好遗憾的。 只是遗憾当时我曾经那样的喜欢过那个人。 即使那么强烈而疯颠。 只是再度证明, 没有雕琢的美只会刺伤人。 五年前曾经得出的结论, 什么时候就给忘了。 人果然会不断地回到最初的幼稚里去。 早前把微信签名改了一段时间。 我们都是战五渣。 就像和那个人说的最后一句话一样。 不必再见。 信写好了, 不必寄了。 去试图原谅一个根本不在乎原谅的人, 不是可笑么。 圣父如你, 这么多年还是改不了。 珍惜那些真正值得珍惜的东西去了。

Continue reading …

归来的瘦子

前阵子, 好友告诉我, 你的博客如果觉得还好,就还是续起来吧。 仔细一看, 才发现自己已经有大半年没有写东西了, 最后一篇文章, 写于16年8月份。 其实不是, 中间也写过几篇文章, 不过借以书怀的多, 于人有益的少。 再加上都是感情, 一地鸡毛, 不如沉默。 昨天晚上发生了很多事, 又是一地鸡毛的状态,我是种飞蛾扑火的性格, 只爱那种天雷交地火的感情, 让我去做冷静的狙击手,其实会觉得有些无趣。 无论将来结果如何,我拼命过,不后悔。 归到正题, 其实是想写一写最近减肥的问题,最近每天在朋友圈晒体重,有人称赞脚美,有人惊叹意志力,更多的人则纷纷问我,到底十天瘦十斤是怎么做到的。 其实非常简单, 少吃多运动。 几乎所有靠谱的减肥秘决都会这么说吧。 在心理咨询上, 改变一个人讲究先要了解这个人所拥有的所有资源, 无论是他的自信, 他的自傲, 不甘, 甚至是他的贪婪, 每个特质都可以成为其资源。 然后来汇总于一点, 对于这个希望改变的地方进行定点打击。 减肥也是一样。 这次减肥是水到渠成的事情,虽然说需要一定的意志力, 但是也顺理成章。 首先是少吃 我现在大概的情况是, 早上吃一个鸡蛋加一个橙子(或者香蕉)。 中午在单位吃, 拳头大小的一块米饭, 拳头大小的荦素菜, 半个拳头大小的一碗汤。搭配不忌, 随便吃。 晚上一杯牛奶(豆浆), 有时会啃根小鸡腿。特别小那种。 这些加起来, 大概是我之前一天食量的四分之一。 可能的一个问题是, 你会不会饿。。。。 当然会饿, 但是我对饿感现在很迟钝, 也就是会让饿成为一个背景音, 然后忽视他。 我之所以能忽视它的原因, 一来可能是因为我长期冥想,曾经有过多次在饥饿状态冥想的经历,在冥想中也仔细地观照过体验过饿的感觉。 冥想是一种很神奇的方法,对于人的很多感受, 很多情绪,在冥想中观照它,都会让它变形,淡化。 在冥想中观照愤怒之后, 你的愤怒是一种自己可控的愤怒, 在冥想中观照饥饿后, 你的饥饿是可能淡化成背景音的饥饿。 说得玄乎一点, 我认为之前的所谓辟谷, 和冥想是有一定的关系的。也许有人真的能做到也未可知。 另外一个诱惑, 就是当你手拿食物的时候,很想再多吃一个怎么办。 两点让我能够解决这个问题。 一是动机。我这次之所以要减肥,和一位仁兄很有关系。这位仁兄前段几乎一天就要拿我是胖子这个事情做几句文章。且这位仁兄表示她对胖子没有兴趣。。。。 二是当饥饿成为一种背影音的时候, 你其实并没有很强的食欲去让自己很饱。这可能和冥想有关系。我不确定。 多运动。 这个没有太多好说的, 摩拜是种很非常好的东西。 我单位离家9公里左右, 每天上班下班都使用摩拜来骑行。 有时感觉吃得稍多, 晚上可以会去附近的体育中心继续骑行(谁让我骨折了, 除了骑行没有更好的运动方案了呢)。 一天二十公里左右的骑行。 大体看起来, 是满足运动的要求的。 我是从大二开始发胖的, 最胖的时候 , 好像达到86公斤, 目前体重76公斤, 打算减到73.5左右停下。 关于反脆弱 我是在骨折期间进行的减肥,刚开始之所以有这个想法, 一来是不想让某位仁兄再嗤笑于我, 二来减肥也是去年就想做的一件事情, 三来也是认为, 任何一个挫折之后, 总要让自己更强大更好一些。 之前朋友经常推荐塔勒布的反脆弱,大意是说一种韧性,并不只是能够抵抗挫折,而是能够利用挫折壮大自己。 早年看周有光老先生在关牛棚的时候, 使用多语言的毛选来进行对比语言学研究。 又看到心理中麦克亚当姆斯(译言原文)有言, 所谓自我, 其实是自我如何组织自己的人生经历,如何将这经历书写为小说。 所以我的人生叙事就是, 这个人不断地冒险, 去寻求更极致的生命体验, 不断地摔倒并强壮且爬起来, 他想把自己看到的美分享给他人。 并在世界的美中, 增加他自己的一份。 那么你的人生故事呢?

Continue reading …

星系中的芙蓉花

读了一个月的人类简史终于读完了. 此刻我坐在守一堂的桌前, 一抬头, 高德纳, 罗杰斯, 辛顿, 埃克曼四位先贤的画像张贴在墙上, 两位是计算机科学家, 两个是心理学家, 正应着人类简史最后一章的主题, 在面对未来可能出现的科技革命前, 人类真的准备好了么? 地外文明的发现? 人工智能的崛起? 永生的日渐逼近? 这里面每一件事情, 都在完全挑战着人类的认知, 从农业革命到信息革命, 科技以指数加速的速度慢慢增强, 但是人类的认知结构仍然与几万年前在丛林应对剑齿虎时相差无几. 他们只能维持150人左右的社交上限, 他们仍然为了避免饥饿摄入大量甜食, 他们中间的男性为了繁衍寻求与更多异性交配, 而女性为了下一代寻求与资源稳定并作出承诺的男性结合, 他们的大脑仍然不擅长处理数字、确定性和逻辑, 他们仍然极轻易地被美图秀秀、叙事化的讲述、煽动的音乐所打动, 他们恐惧于地狱的想象, 痴迷于模特的肌肉, 无法清楚地分析长期收益和短期所得, 哪怕是最简单的逆否命题, 他们的大脑也无法进行习惯的等价思考. 他们对不同肤色的人群充满恐惧和不安, 哪怕种族平等写入宪法写进每一个大厅的门前, 会议的桌上, 他们仍然无法抑制自己看到异族时加快的心跳和上升的血压. 他们利用偏见进行快速决策, 又在偏见的影响下不断犯错. 在几万前的那次对恃中, 他们战胜了地球上, 其他所有的大型动物, 并灭绝了包括尼安德特人、直立人在内其他人种, 从而树了这个星球的霸主地位, 他们在进化中, 通过文化和国家的想象结盟成数以亿计的共同体, 通过对神和主义的归服存放个体和群体的目标和意义, 通过资本主义和帝国的圈地运动把整个星球的资源推上一硕大无朋、永无止息的车轮. 然而日心说, 进化论, 基因组计划, 人工智能, 一步步地, 以往的一切都不再可靠, 也不再能够提供确定性的答案, 问题来势汹汹又隐没无声, 在这次全面的追问和进攻前, 对于智人而言, 那些被忽略被遗忘, 被不屑一顾的问题又一次冒了出来? 你是谁, 你从哪里来, 又要到哪里去. 原谅我在进行一番宏大叙事之后, 却提出了这个充满着思辩意味, 被回答了几千年, 并将被不断回答下去的问题. 这并不一个毫无意义的象牙阁问题, 在这一轮的科技革命中, 每一个领域的变革, 无论是机器人的崛起, 意识的探索, 人造器官, 克隆人, 每一项带来的伦理问题都在追问着, 是什么定义了你是这个人而不是那个人, 是这个样子而不是那个样子, 被上传了意识的你还是代表你么? 你变得如此强大之后, 又要去做些什么? 而悲观的是, 对于这些迫在眉睫的科技问题所带来的对人类意义的追问, 在我们在思想武器库中, 竟然还看不到有什么成体系的答案来处理它, 而对着一无所知的未来, 我们仅剩下乐观悲观的模糊态度, 和朦胧感觉. 日期往后推迟三十年, 那时也许智人的身体已经有一半被仿生人造物取代, 人的平均寿命会达到三百岁, 生育的情况变成越来越稀少, 通过神经科学和生物学的进展, 人类的分析能力, 逻辑判断能力都大幅提高, 强化肌肉, 植入神经皮层, 超大容量的空间记忆脑区, 钢化骨骼……. 回头看我们这最后一代的智人 软弱, 迷茫, 空虚, 挣扎, 不屈, 探求, 失落, 欢笑, 真诚, 虚伪……. 而再过几百年, 地球都湮灭了, 我们也化为宇宙间四散的尘埃. 在光年的尺度上, 这一切是为着什么. 正如当年那个特别活泼的尼安德特人, 或者那只牙齿略斜, 狡诈而凶狠的剑齿虎. 木末芙蓉花 山中发红萼 涧户寂无人 纷纷开自落

Continue reading …

杂感

母亲走后, 拉了三天的keep又拾了起来, 继续两点一线的生活, 偶尔会有朋友来家中看电影, 顺便抱怨下家中缺乏各种生活用品, 不宜待客. 上一个百天计划应该是去年前半年的事情了, 百天计划虽然完成, 但是最重要的目标却没有达到. 人的认知和健身一样, 你要是努把力, 拼一下, 就算体育课不及格, 跑六七公里都未必无法完成, 可是心理上, 如果你从来没有完成过这样的事情, 那对你来讲就是陌生的, 陌生的东西, 在你的疆界之外, 一遇到困难, 便会望向自己给自己划下的那条线: 我真的具备这样的潜力去完成它么. 对于我来讲, 从认知的难度依次递推: 金庸小说 \< 高行健小说 \< 社会学专著 \< 计算机专著 == 英文小说 \< 英文计算机专著 == 英文论文 \< 计算机程序设计艺术英文版. 而每个层次的阅读, 都需要消耗不同的专注力, 我可能在地铁上轻松地阅读计算机专著, 但是读英文论文就感觉不很舒服, 而在地铁上读计算机程序设计艺术, 我甚至没有产生过这种想法. 所以我之前百天计划, 也就是所谓的不周山计划的本意, 就是希望自己能够不断地提高自己的处理能力, 适应更困难的文本. 百天计划, 最后当然是有所收获, 但是从提升认知能力的角度来讲, 可以算是失败了. 今天早上久违地又开始冥想, 而且没有借助背靠, 冥想之后感觉很清爽, 一天学习充实, 晚上吃得很少, 和朋友跑步, 健身, 此刻坐在灯下, 自觉身形轻盈. 很早我就发现, 冥想和运动配合起来之后, 身体会很清洁简单,会更有精力去做更多的事情. 今年已经过了一半还多, motivate告诉我, 我已经28.58岁了. 最近又见到了很多优秀的人, 有些尚在本科, 可是已经把我甩出几条街. 今年的希望除了本职工作之外, 论文写作, 专著翻译, 对话系统, 底层调试, 数学推导. 并不想再许一遍愿, 但是每天都希望做到一些之前做不到的事情. 当然还有感情, 越来越想你了, 然而在找更好相处更能生活的, 还是找更爱的, 而对这个两难问题, 我还是只有拖延. 很想果断. 宁可孤独, 不愿再反复无常没有定心时去喜欢他人. 享受这种半苦修的生活, 像回到了轴一中后面南山小区那满是青苔的夜色.

Continue reading …

我只想记录这样的瞬间.

二十分钟前, 母亲听完我对自己躁郁症症状的描述后, 讲了一通要给我找相亲对象的主题之后告诉我: 无论你做事成与不成, 始终记得, 我和你爸永远在这儿, 什么时候都可以回来. 十分钟前, 亲生好朋友某君看到我的朋友圈后发了首歌给我. 五分钟前, 告诉一个朋友, 我的躁郁倾向也和你一样, 有些方法有时会反弹, 那是时间环境和剂量的问题, 但是work的方法总会work, 我们一起努力变好. 是的, 我想记录的就是这样的瞬间. 在这样的时刻里, 我会和那个负面的自己和解, 会原谅那个不可饶恕的自己, 会理解自己的复杂性而不是丑恶性. 也许是小时受宠太多, 所以一直不自知的以过高的道德, 能力来要求自己. 潜意识中总是拒绝承认自己的平凡. 抱着改变世界的野心和不能接受的自己前退两难. 那是一种什么感觉, 就是你写一个字, 就想删除一个字, 你敲下一段代码就想删除一段代码, 你说一句话就觉得这句话蠢不可及, 你仿佛有一个分裂的自己站在旁边不断地嗤笑: 看这个人, 多丑, 多傻, 多蠢. 算了, 不知道自己写了些什么. 之所以要写文章, 只是想记录下这个时刻, 赞颂下母后和某君, 感谢某友.. 之前反思太多, 之后多说说他人的事情. 多记录幸福和感到被爱的时刻. 很开心. 开心到不想写诗.

Continue reading …