总共83页< 123456 78910 >跳到

  
时间: 2004年3月23日下午2点30
地点: 蕴味咖啡
讲稿: 
下次读书会将在周六 3月23日 举行,此次由老鱼主讲:
其他顺序计算模型,邱奇-图灵论题,函数式语言的可计算性; 
其他文件: 


...
阅读(1145) | 评论(0) | 收藏(0)
2014-01-20 01:18:47 
  昨日,几个集智的老朋友小聚了一下,主要内容是讨论接下来一起的读书会。
没有想到的是,苑明理大拿对计算理论、动力系统研究的还相当深入。尤其是对计算理论的持续兴趣,可能这是当初建立集智俱乐部的一个重要的主题,即对Godel Escher Bach这本书的深入探讨。但是,当时我们却没有沿着可计算理论这条路继续走下去。现在是时间重新打开这扇门了。


另外,一个有趣的事情是,计算士隆重推荐“繁星客栈”这个网站,很纯朴的科普网站www.changhai.org/index.php。我看作者建站的时间居然跟集智网创建的时间差不多。能体会到这种坚持的可贵呀。


最后,感谢蕴味咖啡店主赠送给我们的各色小吃和茶点,很惬意!
...
阅读(862) | 评论(4) | 收藏(0)
2008-3-20 12:14:10 
  这些书都收集到了豆瓣里面:www.douban.com/doulist/133301/
  
  一直对自指问题情有独钟,只可惜身旁很多搞复杂系统研究的人多不像我这样感兴趣。现在受到卢曼一派社会学研究的人们的影响,又点燃了隐藏在我内心深处的兴趣。现推荐几本“自”字当头的书,我虽然没有都读过,但是对其中内容也通过各种渠道多少了解一些。
  
  Understanding Understanding
  看这个题目就知道作者有玩文字游戏之嫌,不过其实仔细想想这个标题的确很有意思。“理解”是什么?我们正在理解“理解”它自己!典型的自指性发问方式。不过这本书的内容好像直接谈论自指并不多,然而作者却是开始在系统论层面思考自指问题的先行者之一,它是二阶控制论(second order cybernetics)的创始人。一阶控制论针对的是人控制机械系统,而二阶控制论则是针对用人来控制控制者的问题,这已经牵扯到了不同层次的缠结性了!所以作者开始思考自指这个问题并不神奇。
  
  Self-Modifying Systems in Biology and Cognitive Science
  这本书的作者是一个计算机科学家,他认为人造机器的最高境界应该是能够自己修改自身硬件结构的机器。此书也是很老的一本,我没怎么读过,不过曾被NKS学派的一些人推荐过。
  
  I Am A Strange Loop
  呵呵,《我是一个怪圈》,一看就知道作者对自指话题的迷恋已经无可救药了。没错,作者就是大名鼎鼎的《GEB》...
阅读(4910) | 评论(6) | 收藏(0)
2014-02-20 00:58:12 
  很多复杂系统种都体现出数值与涨落之间存在着正相关比如,人类认知学中有一个定律,就是人对某数值的估计值越大,它的方差(与真实值)也越大。
另外,很多流网络中,某节点的流量会与该节点的流量涨落正相关。
金融学中风险与收益的关系也是这样,一只股票的收益高往往意味着风险大
生态学中的r策略和k策略似乎也是这个东西的体现,r策略是诸如蟑螂、老鼠,繁殖能力高,死亡率也高,而k策略是大象、鲸鱼,繁殖能力弱,但死亡率低。
如果把生物体的个头作为横轴,生物体能应付的风险(涨落)作为纵轴,则可能得到一条幂律曲线。


所以,数值与涨落之间的正相关关系也许是一个普适的规律。
...
阅读(838) | 评论(5) | 收藏(0)
2014-02-03 14:06:10 

  终于有一本介绍信息论理论的科普书籍了。
比较完整地科普了信息论、算法信息论、量子信息等相关内容。
...
阅读(892) | 评论(7) | 收藏(0)
2008-1-21 12:38:18 
      2008年1月3日清晨,阳光洒满大地,北京城又迎来了紧张、繁忙的一天,然而一位老者却悄悄地走了,他走得那样匆忙,那样平静,他就是我们敬爱的师长:贺仲雄教授。
    “不许叫我贺教授,叫我展小九!”,贺老师如果听到我这样称呼他一定会这样说。这就是他,宁愿自称小孩和学生打成一片,也不愿以教授的身份自居而高高在上。
    “咱们来排排队,所有男生个子比我高的都是我的表哥,个子矮的人都是我的表弟。女生比我爱人个子高的是表姐,个子矮的是表妹”,在课堂上,他经常会这样说。别以为他在开玩笑,他是认真的。有很多学生都跟他称兄道弟。
    展小九这个名字也颇有来历,据说一个大一的学生给他打电话,邀请贺老师参观他们学生宿舍:“我们宿舍现在已经住满了8个人了,所以如果你来的话还有一张桌子可以暂借给你,那么你就是我们宿舍的第九个人了,就叫你小九吧”。贺老师就喜欢敢开玩笑的学生,于是接受了这个称呼,而且还真的去参观这个学生的宿舍了,从此,他就以展小九自称。
    就是这样,恐怕贺老师是北京交通大学唯一一位可以放下架子,和学生真正交流的教授了。所以他的周围总是汇聚了一大批学生,他的每次课程都是座无虚席,而且课后都会有一大批学生前呼后拥。同学们戏称他是“课堂上的老顽童”。
    也许你会怀疑,他这么一种疯疯癫癫、不成体统的样子,能教好学生...
阅读(6972) | 评论(15) | 收藏(0)

  
时间:7月8号(周日)下午两点半
地点:叁号会所
主讲人:王东,中国人民大学科学哲学博士生
讲稿:如何理解欧拉公式
视频:v.youku.com/v_show/id_XNDM1MTEyMDU2.html,v.youku.com/v_show/id_XNDM1MDk2MzQw.html
简介: 
这一次讲的不是数学,而是如何理解数学!会证明不等于理解! 复分析中的欧拉公式,被称为上帝公式,在英国期刊《物理世界》读者投票选出世界十大最伟大公式中排第二。它用最简洁的方式把数学不同分支中的最常见的5个量e、 、i、0、1联系在一起,显示了了经典数学诸多分支(算术、代数、几何、解析几何、三角几何、微积分、复变函数)之间深刻的联系。 在初等复分析中,我们可以用微积分证明它,但是,我们真正的‘理解’它么,就像我们理解 是3个2相乘一样?作为虚数单位的i如何与 相乘,作为自然底数的e如何乘以自身 次?形式化的数学证明无法告诉我们这些。 让我们从从对e、 、i的理解开始,利用认知语言学的研究成果,从人类认知的角度,尝试从不同于公式证明的角度去理解这个上帝公式,去理解我们是如何利用最基础的数学概念,通过数学概念间的隐喻和混合,一步步构建整个数学大厦的。 
活动地点:
叁号会所-北京市海淀区北三环联想桥向西300米过街天桥中航工业青云处右转向北200米,过保安站岗的厂区门直行50米,可看到左手边叁号会所指示牌,延着指示牌直行50米,右手边找43C即叁号会所开...
阅读(8945) | 评论(9) | 收藏(0)

  

开始时间: 2012年3月11日 周日 14:30
结束时间: 2012年3月11日 周日 17:30
地点: 北京 海淀区 叁号会所
讲稿:计算机、大脑、自然,谁更聪明?—— ——探索复杂神经网络背后的简单原理
Hierarchical Temporal Memory 录音:www.duobei.com/room/7547473047
可以直接在这个网址参加在线讲座,也可以回看。
简介:
大脑为什么能轻松完成对计算机的不可能任务?脑怎样利用外部自然界中存在的普遍规律进行感知和学习?神经网络进化的动力和方向是什么?脑的最小模型是否等价于某种统计物理过程?主讲人将以脑的视觉信息处理为主线,通过以另类的视角对计算神经科学、机器学习中几个经典例子的分析和解读,展示对这些问题的思考和探索。
1、自然图像的统计特性和视网膜神经元的计算模型
2、脑皮层的层次结构和Hierarchical Temporal Memory
3、Boltzmann机学习算法和脑的统计热力学模型

主讲人:
肖达,北京邮电大学计算机学院讲师。应用研究方向为云计算、云存储、存储安全。理论研究方向为计算神经科学和神经网络动力学,以及物理学、生物学、计算机等学科中与之相关的交叉领域。目前研究兴趣为物理和生物启发的无监督层次特征学习算法。


...
阅读(5330) | 评论(4) | 收藏(0)
  这个模型从最早提出来到现在,已经快两年的时间了。不过停停走走的,从模拟,改规则,到后来推出解析解,体会到了一个简洁优美模型的魅力。关键是,该模型有很好的扩展性,原因是它足够简单。该模型的扩展至少可以产生3篇论文。
现在终于开始要把原始模型写成论文了,有点举重若轻的感觉。计划投PRL,虽然自己也没什么把握,但是在自己心目中,这是可以拿得出手的东西。
...
阅读(691) | 评论(0) | 收藏(0)
2014-01-21 00:42:32 
  昨日到肖大侠的实验室小坐,得到了不少关于deep learning的学习资料,记录下来备忘
1. reading list(几篇综述比较好)
deeplearning.net/reading-list/
2. tutorial(介绍常用模型的原理和theano实现)
deeplearning.net/tutorial/
3. pylearn2(是基于theano的)
网址
https://github.com/lisa-lab/pylearn2
一篇介绍性的paper
arxiv.org/abs/1308.4214
里面的tutorial
nbviewer.ipython.org/github/lisa-lab/pylearn2/blob/master/pylearn2/scripts/tutorials/softmax_regression.ipynb
nbviewer.ipython.org/github/lisa-lab/pylearn2/blob/master/pylearn2/scripts/tutorials/multilayer_perceptron.ipynb
nbviewer.ipython.org/github/lisa-lab/pylearn2/blob/master/pylearn2/scripts/tutorials/convolutional_network.ipynb
nbviewer.ipython.org/github/lisa-lab/pylearn2/blob/master/pylearn2/scripts/tutorials/stacked_autoencoders.ipynb
deep learning会议ICLR 2014
openreview.net/venue/iclr2014

...
阅读(794) | 评论(0) | 收藏(0)
总共83页< 123456 78910 >跳到
2012-2022 www.swarma.org, all rights reserved