一个梦

梦到回到大学的一场考试,难度很大,但是在座都是学霸,每个人都迅速的写着答案,除了我。再一次感到被虐的辛酸,来自于平日不爱踏实学基础知识的坏习惯。从小都是这样,没有追求最高的心,凭着自己尚能混过去的智商保持在第二阶梯。没有培养起对学习的兴趣,到了大学自食其果,受益很少。在所有路中,选最难的路,如果早一点知道就好了。

Read More...


八月学习反思

最近看flask,先是过完了一遍网上的简易的教程,然后找了一本书在看,看着看着发现自己心浮气躁的,停下来想了一下,自己一边看其实一边在质疑该不该花很多时间在把flask看这么细的事情上。月初系统的看了一下koa, 其实flask和koa是一类东西。所以自己相当于八月一大部分学习任务都分配给了这两个框架。感觉不是很理智。当感觉自己某个知识领域有一大片盲点时,我决心从一个点开始,然后不由自主就容易陷入这个点的苦战。这是我学习上的一个坏毛病,

Read More...


最近在系统的看Node,补了一些以前没有深入的东西,复习整理一下~ Node.js中的垃圾回收V8将堆分为新生代和老生代,新生代空间中的对象较小,垃圾回收快,在新生代存活的对象会进入老生代空间。 新生代将空间一分为二,将存活的对象复制到另一个空间,然后替换替换回去,速度快但是空间花销大。 老生代空间垃圾回收分位标记清除和标记整理两个阶段。标记清除:老生代空间活对象存在标记,没有被标记的会被清除。标记整理:为了解决清除后的内存碎片问题,将

Read More...


因为上周看了乐队的夏天,好久没听音乐节和livehouse的我看到刺猬出场宁波音乐节。于是连夜定了这周的音乐节门票和住宿,带上从未去过音乐节的二哈去晃悠一圈。 周六的中午去湘湖吃完犀鸟家的牛排(五分熟的美好回味无穷),就开上了去宁波的高速。 下午三点多抵达旅店,旅店是随意定的一家捡漏的汉庭,到了才发现附近吃的满多,住的也不错,离音乐节现场也很近。简单收拾了一下,就去现场嗨去了。冒着暴晒的太阳等在前排几个小时,看到了九连,发现了宝藏乐队

Read More...


去桥西直街做糕点,在这边逛了一圈,小河边,老巷子,家家门口有颇具形态的植观,很是舒服。 选了桂花和玫瑰的味道,手接触水和面的感觉很奇特,在一种担心自己把它弄砸的感觉中遵从引导,神奇的到达最后一步。 制作中: 蒸之前: 蒸好后: 大龄儿童教学现场:

Read More...


破茧记

麻醉在一个场景里太久,在夜深人静一个人在窗边望向深空,原来竟然还是会落泪。流完眼泪忽然质问自己在哪里,身边是谁,每天为什么做着什么事情。好像一瞬间回到了十三岁的我,十五岁的我,十八岁的我,二十岁的我。唯独不是每天每天熟悉的这个我。那熟悉的夜,还是那些个少年时无数次痛彻心扉的流泪时的夜,是那个十九岁被恋人所伤独自从深夜徘徊到黎明的夜。这样的沉静,提醒我很多个熟悉的心碎。我不会回头,前方有自由。自由,是年少最大的追求。并非被限制太多,只是一

Read More...


上次讲了logistic回归模型,常用于二分类,今天梳理的softmax loss则常用于多分类场景,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类。 假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的softmax值就是: softmax就是这么一个简单的式子,接下来讲loss部分: loss函数选取交叉熵公式, 由于多分类的真实值通常是oneShot形式,最终loss函数可简化为L

Read More...


装Jupyter过程中遇到奇奇怪怪的各种坑,查了无数github issue + stackoverflow,期间无数次内心崩溃,最终终于搞好了,发现遇到的问题中文解决方案很少,于是在这边记录下。 归根到底,linux没好好学,这边顺便记录下解决问题过程中收获的相关知识点。 最初问题: 一切的问题起源于起Jupyter时的报错1ImportError: cannot import name 'Type' 这个问题百度,基本没有。Goog

Read More...


logistic回归 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法 Sigmoid函数由于Sigmoid函数的函数性质:作用域是负无穷到正无穷,值域是(0,1),很适合二分类的场景,式子如下所示: 假设我们预测函数为y = θ * x1 + b 决策边界决策边界分为线性决策边界和非线性决策边界,如图所示: 上面两张图很清晰的解释了什么是决策边界,决策边界其实就是一个方

Read More...


团建自驾桐庐,途中遇到夕阳~山,水,落日对桐庐从此有了个大概的印象,决定一定要来玩一玩

Read More...