黎川| 德格| 贵德| 佛山| 梓潼| 裕民| 瓦房店| 呼和浩特| 长清| 无棣| 平原| 海兴| 泽普| 花都| 平塘| 安岳| 桦甸| 容城| 布尔津| 景东| 南汇| 金昌| 东台| 宾县| 彝良| 神木| 尚义| 九龙| 澄江| 沿河| 社旗| 郴州| 乌拉特前旗| 西山| 康平| 台中市| 墨竹工卡| 汉南| 曲沃| 阳新| 肥城| 嘉禾| 贡觉| 大洼| 肇东| 正安| 碾子山| 迁安| 开封市| 阆中| 遵化| 曲周| 淮阳| 友谊| 乐都| 文昌| 广丰| 山丹| 道县| 辽宁| 薛城| 富拉尔基| 丘北| 山阳| 兴山| 盂县| 乌伊岭| 茶陵| 正安| 武川| 平南| 贾汪| 垫江| 增城| 色达| 克东| 芜湖县| 天津| 定兴| 泉港| 招远| 丰宁| 西和| 柘城| 德化| 光山| 蒙山| 容城| 武进| 忻城| 丹江口| 泾源| 鸡东| 濠江| 珠穆朗玛峰| 井研| 防城区| 海伦| 高阳| 托克逊| 乌兰察布| 临湘| 正定| 祁连| 镇安| 南丹| 德兴| 鄂托克前旗| 恒山| 南和| 株洲县| 新野| 彰化| 监利| 河池| 华坪| 扶风| 呈贡| 梓潼| 郸城| 正镶白旗| 大田| 温县| 黑河| 沧源| 临沭| 中阳| 泰安| 汉源| 武夷山| 平南| 信丰| 古丈| 平远| 普宁| 潍坊| 仪陇| 阳信| 彝良| 察布查尔| 库车| 绥化| 茂县| 丽江| 和龙| 范县| 乌马河| 罗源| 中卫| 科尔沁左翼中旗| 琼中| 滨州| 聊城| 政和| 和静| 顺义| 河津| 塔城| 周至| 阿图什| 临清| 南乐| 琼海| 武陟| 天津| 志丹| 渭南| 平遥| 尖扎| 合作| 畹町| 科尔沁右翼中旗| 杂多| 迁安| 陈仓| 三水| 额尔古纳| 永胜| 晋州| 庆安| 当雄| 景德镇| 西固| 安泽| 红安| 莱芜| 科尔沁左翼后旗| 丰县| 洱源| 厦门| 山东| 宁蒗| 介休| 恩平| 张家川| 盐山| 鲁甸| 集贤| 漳县| 临淄| 余江| 房山| 循化| 大冶| 莱山| 饶平| 沙圪堵| 禹城| 崇礼| 赤城| 百色| 惠农| 安顺| 宜川| 五寨| 青州| 喀什| 长汀| 盈江| 焉耆| 开封市| 阜新市| 大英| 屯留| 丹凤| 水富| 鄂温克族自治旗| 敦煌| 理塘| 寿光| 永丰| 九江县| 宣恩| 九龙| 南浔| 榕江| 威县| 温宿| 南平| 旌德| 锦州| 海城| 祥云| 上思| 明水| 襄阳| 靖远| 夏河| 炉霍| 莎车| 阿克陶| 罗定| 澳门| 江夏| 林口| 岐山| 铁岭市| 本溪市| 海沧| 马尾| 蒙山| 长汀| 潮州| 巴里坤| 百家乐怎么玩
首页| 滚动| 国内| 国际| 军事| 社会| 财经| 产经| 房产| 金融| 证券| 汽车| I T| 能源| 港澳| 台湾| 华人| 侨网| 经纬
English| 图片| 视频| 直播| 娱乐| 体育| 文化| 健康| 生活| 葡萄酒| 微视界| 演出| 专题| 理论| 新媒体| 供稿

霍金最后著作对未来饱含忧思

2018-12-10 03:46 来源:科技日报 参与互动 
标签:行不贰过 百家乐怎么玩 公交花园

  “超人”种群将占主导地位 人工智能或有自己意志
  霍金最后著作对未来饱含忧思

图片来源:美国石英财经网站

  《重大问题简答》封面。图片来自网络

  今日视点

  本报记者 刘 霞

  10月16日,已故著名物理学家斯蒂芬·霍金最后的著作《重大问题简答》一书出版,涉及他对科学与社会所面临的最大问题的思考,包括“人类是否会一直在地球上生存下去?(可能不会)”“时间旅行是否可能?(仍无法排除可能性)”等;还有对诸如地球面临的最严重威胁、“超人”种群以及外太空是否存在智慧生命、如何开拓太空殖民地等问题进行的最后预测,这些预测饱含了霍金对人类未来深深的忧思。

  据美国石英财经网站15日报道,霍金在书中称,未来人工智能可能形成自己的意志——与我们人类相冲突的意志;一种利用基因工程超越同伴的“超人”种群将占据主导地位,这可能毁灭人类。

  人类的进化没有边界

  石英财经网站16日报道,在整本书中,霍金对人类在地球上的未来持悲观态度。政治不稳定、气候变化以及核暴力的可能性,使人类在地球上发展的持续性变得难以为继。

  霍金认为,地球面临的头号威胁是小行星碰撞,类似那种导致恐龙灭绝的碰撞。他写道:“可是,我们(对此)无法防御。”

  更直接的威胁是气候变化。“海洋温度上升将融化掉冰冠,释放出大量二氧化碳。双重效应可能导致我们的气候类似于金星,气温达到250℃。”

  霍金认为,核聚变发电会赋予我们清洁能源,不排放污染,不引起全球变暖。

  在“我们如何塑造未来”章节中,霍金不同意人类处于“进化巅峰”这一观念。在他看来,人类的进化和努力没有边界。

  他认为人类未来有两种选择:首先,探索其他可供人类居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星际行星等;其次,积极利用人工智能来改善我们的世界。

  人工智能将形成自己的意志

  霍金还强调了规范管理人工智能的重要性。他指出,“未来人工智能可能形成自己的意志,与我们人类相冲突的意志”。应当制止可能出现的自动武器军备竞赛,如果发生类似于2010年股市闪电崩盘那样的武器崩盘,后果将不堪设想。

  他在书中写道:“对人类来说,超级智慧的人工智能的出现不是福就是祸,二之必居其一。人工智能的真正危险并非在于恶意,而在于能力。超级智慧的人工智能终将极其擅长实现目标。如果这些目标与我们的目标不一致,那我们就麻烦了。”

  他主张政策制定者、科技行业和普通大众认真研究人工智能的道德影响。

  “超人”种群将占据主导地位

  据英国《星期日泰晤士报》15日报道,霍金最大的担忧是,富人不久将能够编辑自己及其子女的DNA,提高记忆和疾病免疫力。

  石英财经网站报道,霍金认为,未来1000年的某个时刻,核战争或环境灾难将“严重破坏地球”。而到那时,“我们的天才种族可能已经找到了摆脱地球束缚的方法,因此能够战胜灾难”。不过,地球上的其他物种可能做不到。

  这些成功逃离地球的人很可能是新的“超人”,他们利用诸如CRISPR(俗称“基因剪刀”)这样的基因编辑技术超过其他人,科学家可利用此类基因编辑技术修复有害基因,并加入其他基因。

  霍金还表示,即使政治家设法用法律禁止这一做法,但这批人会不顾禁止基因工程的法律约束,提高自己的记忆力、疾病抵抗力和预期寿命,这将对世界其他人群构成危机。

  在《星期日泰晤士报》15日发表的文章节选中,霍金称:“我敢肯定,本世纪之内人们将找到修改智力和天资的办法。政治家可能会制定禁止人类基因工程的法律,但肯定有人抵挡不了改进人类特征——比如记忆力、疾病抵抗力和寿命的诱惑。”

  他指出:“一旦出现这种超人,未能通过基因改造来提高自身的人必将遇到重大政治问题,他们无力竞争,也许会变得可有可无,甚至会绝种。不过,未来将出现一种不断加速改进的自我设计人类,如果这种人类种族能不断设法重新设计自己,很可能扩散开来,殖民其他行星和星球。”

  有关为何尚未发现智慧生命或是智慧生命没有造访地球这类问题,霍金承认有各种各样的说法,他对此持谨慎乐观的态度,但他首选的解释是:人类“忽视了”外太空智慧生命的形式。

  (科技日报北京10月17日电)

【编辑:罗攀】
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
[京ICP证040655号] [京公网安备:110102003042-1] [京ICP备05004340号-1] 总机:86-10-87826688

Copyright ©1999- 2018 chinanews.com. All Rights Reserved

望园道 李天木回族乡 五马路与跃纬路交口日升里底商 宝日陶亥西街 九街坊社区
石羊场 大宁 盘水镇 兴华街 大厅村
灵泉镇 外事学院北区 垣曲 鼓山苑 蒙独脑包村
乌拉台哈萨克族乡 八里桥北站 和什巴克 潘桥镇 五里墩街道
二八杠玩法 澳门百老汇线上 威尼斯人注册 澳门葡京官网 斗牛技巧
澳门赌场排名 葡京网上赌场 澳门在线博彩 现金扎金花 mg电子冰上曲棍球