今天是周一,联系了一下之前微软的Manager。
正好他也是我AA面试的面试官,所以想问问他我面试的情况。
不过不太好的消息是,根据他的反馈,小冰今年的HC有点吃紧,候选人有点多。其实感觉就是变相劝退了。
知道这个消息当然是有点难受的。不过总会遇到挫折的嘛, 还有很多机会在等着我。
我猜这是最后一篇Microsoft Time的文章了,希望可以安心刷题,找到心仪的工作吧。
今天是周一,联系了一下之前微软的Manager。
正好他也是我AA面试的面试官,所以想问问他我面试的情况。
不过不太好的消息是,根据他的反馈,小冰今年的HC有点吃紧,候选人有点多。其实感觉就是变相劝退了。
知道这个消息当然是有点难受的。不过总会遇到挫折的嘛, 还有很多机会在等着我。
我猜这是最后一篇Microsoft Time的文章了,希望可以安心刷题,找到心仪的工作吧。
所有知识,无论是过去的、现在的还是未来的。都有可能通过单个通用学习算法来从数据中获得。
前两天用简单的多层感知器搭建了一个Word-level的detector模型。在模型的最后一次是用来Softmax,将Output Layer进行了分类。
对于场景识别这个问题,我目前先规定了可选的类别(比如Forest/ Ocean/ River/ College/ Suburb/ etc.)。这样一方面来说,可以简化detector的工作流程,另外也比较适应我们组目前的资源情况(识别场景之后需要提取事先准备好的Background,如果提取出了新的element也是无法获取到background resource的)。
上周我的想法是先使用Word embedding将Sentence转化为Sequence,然后使用Bi-LSTM或者直接使用Linear CRF对Sequence进行Sequence Tagging,以提取Sentence中涉及场景的Word。最后通过Word-level detector分析所选的Word,得到Sentence-level Scenario。
不过经过实验我发现,由于我手上只有不到500个短篇的儿童故事,还是没有标注的那种。就算我全部拿来进行标注,也只能生成不到5000个Phases。因为Labeler的资源比较紧张,我先用第一版的词表Detector模型生成了Labeling data,丢到CRF里面之后发现出了Person-entities,其他的类别基本无法有效识别出来。
于是这种方法暂时宣告失败。
周五晚上在公司发呆,突然觉得可以试一试力大砖飞的方法,直接使用Sentence-level embedding来作为Input。在这个模型里加入了CNN Layer,但其实单靠Dense Full connect Layer就已经可以在这个数据集上达到同样的效果了。
# 模型构建
model = Sequential([
Conv1D(filters=5, kernel_size=5, strides=1, padding='valid', input_shape=(768, 1), name="Convolution_Layer_1"),
AveragePooling1D(pool_size=5, strides=1, padding="valid", name="Pooling_Layer_1"),
Conv1D(filters=5, kernel_size=5, strides=1, padding='valid', name="Convolution_Layer_2"),
AveragePooling1D(pool_size=5, strides=1, padding="valid", name="Pooling_Layer_2"),
Flatten(name="Flatten_Layer"),
Dense(256, input_dim=3760, name="Dense_Layer_1"),
Activation('relu'),
Dropout(0.1),
Dense(32, input_dim=256, name="Dense_Layer_2"),
Activation('relu'),
Dropout(0.1),
Dense(11, input_dim=32, name="Dense_Layer_3"),
Activation('softmax'),
])
今天是新年第一天上班,然后想到这周只用上三天班就很开心。
由于Sequence Tagging需要大量的标注数据,我这边暂时没有数据源,所以今天下午就先用现有的标注数据集做了一个场景Softmax分类器。
原理十分简单,使用Word2vec (之后可能会考虑换成BERT,但是这两天BERT在我这里表现还不是很理想,所以先用顺手的工具搭建一下Demo)生成词向量。之后通过标注数据集合,将词表里所有的词分成以下几个大类(类别可以由具体的使用场景确定,我这里的分类主要是为了适配童话故事的情况)。
# 模型构建
model = Sequential([
Dense(32, input_dim=200),
Activation('relu'),
Dropout(0.1),
Dense(16, input_dim=32),
Activation('relu'),
Dense(9, input_dim=32),
Activation('softmax'),
])
用Keras搭建了一个最简单的多层感知机,加上Dropout,开始喂数据。最后可以达到96%左右的Accuracy,算是基本可以使用了。
test loss: 0.09276254528926478
test accuracy: 0.9666666666666667
现在这套模型已经可以识别任意词的场景类别了。下一步就是使用Sequence Tagging找出描述场景的位置了。
最近在做NLP的一些工作。
遇到的问题是:Precisely detect scenario/weather/time/etc in a paragraph-level document.
对于这个问题,我作为一个NLP外行,首先想到的思路是建立相应的词表,然后对每一个Sentence进行Tagging。在完成Coding的工作后,在测试中效果还是可以的(毕竟用Word2Vec聚类建立了好大一份词表)。但主要的问题是Overtrigger,这个模型无法区分那些地方才是真正描述Target的,更无法理解一词多义的情况。
于是在第一版模型可以基本Cover住下游业务需求之后,我Mentor对Precision有了进一步的要求(手动GG)。
在想了好几天之后(其实主要时间都用来划水),我想了一个不太成熟的方案,先记下来等元旦过完了回来再和Mentor讨论一下:
如果这几个流程可以按照预期来进行的话,那效果应该还是不错的。
很久之前就一直被pip的更新困扰了。由于Virtualenv自带的pip版本是10.1的,而现在的pip版本已经进化到了18,所以每次安装的时候都会被提醒要升级pip。
但是不知道为什么,pip在virtualenv里面的升级貌似会有报错。而且由于不升级的话,也不影响使用,所以也就一直没有升级。
今天实在受不了了,于是Google了一下解决的方法,其实只要强制升级一下就可以了(我估计是Python类型检查出的问题)。下面是更新命令:
If you can’t understand Chinese, and just want to update your pip in the virtialenv. Please ignore these blather, typing the following command and hit the Enter:
python -m pip install -U --force-reinstall pip
嗯,就是这么简单…
It has been more than one month that I came back my home country.
However, I recognized I have carried a Samsung Gear VR back until yesterday. It is a fancy equipment, but I met a bunch of trouble when I wanna restart it in China.
Firstly, everything looks normal…
I tried into the virtual space, and got something new. the scenario was seem like the old one, but only two applications can be shown (Samsung Gallery and Internet Browser).
The worst thing is that my library and App Store were vanished, which means I can’t download anything. So I uninstalled all applications and services which are VR-related. Technically, the behavior has been proved as a stupid idea…
Through some very struggle working, I finally recapture the original version of Oculus Home (Or the international version, in another word). Following are what I does:
You may be a senior user of Linux, and sudo is your lifestyle. However, how to use “sudo” in Windows except using right-click is still a problem for you probably.
Since I am working for Microsoft now, Windows operation system is the unique choice for me. Through a long and hard exploration, I finally figured out how to use “sudo” like in Linux in Windows prompt.
Here is the command for your reference:
runas /noprofile /user:Administrator "your command"
Then, You might be required to input your password like in Linux (U cannot see what you input too, so just typing…)
算算日子,来帝都已经有十天了。
不算工作的五天,大大小小的饭局约了有十多个。感觉减肥的大计又要暂时搁浅了。
之前在墨尔本报了健身房,疯狂跑步,基本上每天都可以轻一公斤的样子,最轻的时候甚至差点就要突破90大关了。但是最近各种吃吃吃,导致体重大有回升到一百的趋势。
然后工作其实还蛮轻松的。感觉整个小组是一个大的Scrum,然后我是一个小的Scrum team。每天只需要和Mentor沟通一下对好需求就可以了。
至于剩下的时间的话,就可以自由支配了。所以其实可以自己学到很多东西。虽说外面一直盛传微软不用加班,但是好歹要入乡随俗,STCA还是多多少少要加一点班的,不过范围全由自己掌握。
本来说上个周末要去圆明园和颐和园,但是时间总是不够用,和朋友玩了一会儿就没有时间去逛园子了。
周一刷朋友圈的时候看到Han也来了北京,原因竟然只是为了看升国旗,果然是思想觉悟超级高的党员。然后就愉快的和Han约了周四晚上的局。这应该也是我们第一次在国内见面吃饭。
上个周末和晓波约了周末去滑雪,感觉应该会很好玩,美滋滋。所以估计周末的另外一天我会抽出来去逛圆明园。
上周和这周的情况差不多就是这个样子了,希望假期在微软可以过的开心吧,顺便多学一点东西。
Cheers
这两天开始认真工作了。
由于代码仓库的权限一直没有审批下来,我昨天划了一天的水。
可能是因为巨硬的体量实在是太大了,各种流程的审批都有点慢。而且不知道问什么,感觉Check-in的引导工作也不是非常理想,很多东西都需要自己打电话去咨询,这无疑增加了沟通成本。
在其他方面,微软的东西做的还是可以的(除了经常性的exception之外)。就操作系统来说,在微软肯定是得用Windows的系统了,但是Windows真的是对开发人员不太友好,Shell好难用。
于是我默默的搜索了一波Windows效率工具… 希望可以稍微缓解一下现在尴尬的情况…
今天和豪翔约了午饭,希望可以请教前辈大佬的经验吧。