纽约时报提供AR大型强子对撞机体验
责任编辑:传说的落叶 时间:2018-12-25 09:09
[导读]利用ARKit和ARCore的平面追踪功能,纽约时报的应用可以投影出2012年6月10日Atlas大型强子对撞机对撞过程的3D模型。
尽管我们不可能回到过去来观察宇宙诞生之初的大爆炸,纽约时报通过其APP最新的增强现实功能给读者提供了最接近的模拟体验。
上周五,纽约时报发布了名为“大型强子对撞机的中场休息”的互动故事,让读者可以观看虚拟的瑞士欧洲核研究中心(CERN)大型强子对撞机,并探索其最著名的发现——希格斯玻色子。
这是一段由一系列360度照片以及VR视频构成的大型强子对撞机虚拟之旅,在这段旅途中,物理学家将亚原子粒子进行碰撞,模拟了宇宙大爆炸发生的条件,揭示了宇宙隐藏的秘密。
通过增强现实,读者可以看到一个证明了希格斯玻色子存在的粒子碰撞过程,这一过程为整个研究团队赢得了诺贝尔奖。利用ARKit和ARCore的平面追踪功能,纽约时报的应用可以投影出2012年6月10日Atlas大型强子对撞机对撞过程的3D模型。
3D模型显示了设备的轮廓和碰撞中粒子的路径,标识出了几个罕见的粒子。这些粒子设法刺穿了对撞机内部探测器由铅和铁制成的外壳。这种体验与大型强子对撞机本身相匹配,占用了很大的空间,可以从起居室一直延续到相邻的房间。
Google Lens目前可辨认产品已经超过10亿
谷歌的人工智能分析工具Google Lens现在可以识别谷歌零售与价格比较网站中的超过10亿种产品。这是它2017年10月首次亮相时所覆盖物体数量的四倍。
Google Lens和增项显示副总裁Aparna Chennapragada在一篇关于Google Lens里程碑的回顾博客文章中披露了这一消息。
她写道:“我花了十年时间,领导团队通过谷歌搜索、谷歌助手和现在的Google Lens构建使用人工智能帮助人们日常生活的产品。每一个醒着的时刻,我们依靠我们的视觉来理解我们的环境,记住各种信息,探索我们周围的世界......我看到相机开创了一整套新的信息发现和支持机会。”
在本文中所说的产品是指产品标签。Google Lens利用了光学字符识别引擎,这是一种借鉴了谷歌搜索引擎,使用AI来识别不同字符、语言和字体、拼写校正模型的系统。光学字符识别引擎可以匹配Google Shopping中不同类别产品的条形码,二维码,ISBN号和其他字母数字标识符。
- 人工智能快讯:微软2024年10月23日
- 阿里云开源AI应用开发2024年10月23日
- 如何将阿里云服务器2024年10月23日
- 衡阳师范获省计算机2024年10月16日
- 杭州文三3D打印创意设2024年10月10日
- 苏州点铁工业设计申2024年10月10日
- 2024年度中国皮革行业2024年10月10日
- 2024年世界:人工智能2024年10月10日
- 2024年湖南省“工业设2024年10月10日
- 快讯:福建旅游产品2024年10月10日