来源:科学杂志 

这是波鸿鲁尔大学的神经科学家与ErhanGenç博士和Christoph Fraenz博士合作进行的一项研究的结果。这项研究是使用特定的神经影像技术进行的,该技术可在微观结构水平上洞悉大脑的连线。

波鸿生物心理学研究小组的团队与阿尔伯克基新墨西哥大学,柏林洪堡大学和阿尔伯克基洛夫莱斯生物医学与环境研究所的同事一起,于2018年5月15日在《自然通讯》杂志上发表了他们的报告。

智力取决于树突的数量

研究人员使用神经突取向分散和密度成像分析了259名男女的大脑。这种方法使他们能够测量大脑皮层中树突的数量,即细胞用来相互沟通的神经细胞的延伸。此外,所有参与者都完成了智商测试。随后,研究人员将收集的数据相互关联,发现:一个人越聪明,大脑皮层中的树突越少。

该团队使用一个独立的,可公开访问的数据库,该数据库是为“人类连接基因组计划”(Human Connectome Project)编译的,在大约500个人的第二个样本中证实了这些结果。因此,可以解释先前冲突的结果

新发现提供了对迄今为止情报研究中收集到的矛盾结果的解释。首先,先前已经确定,聪明的人倾向于具有更大的大脑。“假设是更大的大脑包含更多的神经元,因此拥有更多的计算能力,” ErhanGenç说。但是,其他研究表明,尽管他们的神经元数量相对较高,但是智商测试期间,智商的大脑显示出的神经元活动少于智商较低的人的大脑。

ErhanGenç总结道:“聪明的大脑拥有精瘦而有效的神经元联系。”“因此,他们在低神经元活动时拥有较高的智力表现。”

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

一个人越聪明他大脑皮层神经元之间的联系就越少相关推荐

  1. Nature:越运动越聪明!躺平小鼠这样做,长出更多脑细胞

    本文约2000字,建议阅读5分钟 本文带你了解越运动越聪明! 左手咖啡右手"快乐水",上班久坐下班"葛优躺"的你,最近有没有感觉到,脑子有那么点儿不好使?似乎记 ...

  2. cento任务栏如何固定在下方_桌面越乱越聪明?爱因斯坦是如何管理桌面的

    1.阅读本文预计需要 6 分钟,并提供了资源下载.2.本文是「电脑爱好者」专题C12篇的更新版本.3.第一时间获取更新,欢迎关注「奔跑中的奶酪」. 导读 桌面越乱的人越聪明,也更有创造力吗? 这话要放 ...

  3. 神经元之间是如何形成“社交网络”的

    来源:中科院神经科学研究院 摘要:我们的大脑中存在着亿万个神经元,在神经科学领域有一个非常重要的问题,就是一个神经元是如何在这亿万个神经元中选择与某一些神经元形成突触联系的. 演讲者:中国科学院神经科 ...

  4. 这些食物让人越吃越聪明!

    大家可能都对怎么样可以变得聪明些很感兴趣,那今天就来说说除了读万卷书.行万里路.锻炼思维能力以外,我们还可以从吃的方面进行调整. 比如下面这些食物就能让我们越吃越聪明.毕竟民以食为天,大家可不要太小看 ...

  5. correl函数相关系数大小意义_相关系数越大,说明两个变量之间的关系就越强吗...

    展开全部 相关系数越大,说明两个变量之间的关系就越强.当相关系数为1时,两个变量其e68a84e8a2ad3231313335323631343130323136353331333431353431实 ...

  6. 你越撩TA_TA越聪明?谁是最厉害的人工智能机器人?

    想不想知道是什么 "客服"传统便是企业最人力密集的的部门,一方面是高强度24小时在线的呼叫中心考验体力和耐力,另一方面是由于业务的扩张发展而需要服务人员对业务掌握的更加全面和精深, ...

  7. 书读得越多,是不是变得越聪明?

    这是一个看似简单却有很多争议的问题.一方面,阅读确实可以让人获取更多的知识和信息,从而使人变得更有智慧.但另一方面,仅仅是读书并不能保证一个人会变得更聪明,因为聪明是一种多方面的能力,它不仅仅取决于知 ...

  8. 越专业的人,在下一个时代死得越惨烈!

    越专业的人,在下一个时代死得越惨烈! 01 商业上的重大失误源于心理假象 罗素有一个非常著名的比喻,农场里面有一只鸡,每一次看到农场主来会被喂食,这只鸡就认为农场主的到来和喂食存在着因果关系.结果有一 ...

  9. 交叉熵损失函数的通用性(为什么深度学习DL普遍用它):预测输出与 y 差得越多,L 的值越大,也就是说对当前模型的 “ 惩罚 ” 越大,而且是非线性增大是一种类似指数增长的级别,结论:它对结果有引导性

    交叉熵损失函数的通用性(为什么深度学习DL普遍用它):预测输出与 y 差得越多,L 的值越大,也就是说对当前模型的 " 惩罚 " 越大,而且是非线性增大是一种类似指数增长的级别,结 ...

最新文章

  1. Cannot resolve method 'getParameter( )'
  2. CG CTF WEB MYSQL
  3. 走出舒适圈,从来都不简单
  4. android摄像头框架,FS_S5PC100平台上Android Camera架构分析
  5. 走访近20家代工厂后:近千块的大牌T恤,成本只要几十块
  6. 谈 数学之美 和 看见
  7. ps -ef |grep -v 在shell sh 脚本中貌似无效?
  8. linux mysql 安装innodb_在ubuntu Mysql 5.7 安装InnoDB Memcached 插件
  9. xlwt写操作基本代码
  10. 20145307《信息安全系统设计基础》第十一周学习总结
  11. Python 修改pip源---windows / Linux
  12. ajax html页面传值乱码,jQuery Ajax传值到Servlet出现乱码问题的解决方法
  13. torch.nn与torch.nn.functional
  14. 基金理财系列6 之指数基金
  15. CentOS设置工作区个数
  16. POJ2728 最小比率生成树/0-1分数规划/二分/迭代(迭代不会)
  17. linux下alias命令具体解释
  18. (笔记)MySQL 之 Metadata Locking 研究(5.5版本)
  19. 鲁棒偏最小二乘法概况
  20. 三种局域网扫描工具比较

热门文章

  1. PCB表面处理工艺常见六大分类
  2. BigDecimal基本知识
  3. BigDecimal 详解
  4. 超级烂片《盗梦空间》
  5. 统计推断——假设检验——卡方检验
  6. 计算机论文免费的数据库有哪些,计算机数据库论文范文
  7. Solidworks二次开发系列入门1
  8. Vue类型文件的基本结构详解 ------ template、export、组件的挂载以及部份值的调用方法
  9. python+django+sae
  10. [论文笔记]Bidirectional LSTM-CRF Models for Sequence Tagging