1. IE browser is NOT supported anymore. Please use Chrome, Firefox or Edge instead.
2. If you are a new user, please register to get an IHEP SSO account through https://login.ihep.ac.cn/registlight.jsp Any questions, please email us at helpdesk@ihep.ac.cn or call 88236855.
3. If you need to create a conference in the "Conferences, Workshops and Events" zone, please email us at helpdesk@ihep.ac.cn.
4. The max file size allowed for upload is 100 Mb.

第十九届全国科学计算与信息化会议

Asia/Shanghai
遵义世纪柏源酒店

遵义世纪柏源酒店

刚 陈 (高能物理研究所)
Description

       全国科学计算与信息化会议面向全国科学研究人员以及计算机专家与工程技术人员,搭建一个沟通交流平台,探讨科学研究需求、实际工作经验以及新技术发展与应用,以更好的提升计算机与信息技术在现代科学研究的应用水平。

       第十九届全国科学计算与信息化会议由中国核学会核电子学与核探测技术分会主办,中国科学院高能物理研究所与遵义师范学院承办,定于2019年7月15日至19日在贵州省遵义召开。会议将邀请多名知名学者做特邀报告,汇集高能物理与核物理、天文空间、生物医药等领域的科研人员和计算机专家,共同分享科学计算与信息化的最新动态及研究成果。

    • 会议注册 大堂

      大堂

      遵义世纪柏源酒店

    • 会议注册 四层

      四层

      遵义世纪柏源酒店

    • 会议开幕
    • 大会报告I 贵州厅

      贵州厅

      遵义世纪柏源酒店

      Convener: Dr 刚 陈 (IHEP)
      • 1
        Big Data Science Center at SSRF The making of a Superfacility
        The rapid development of synchrotron facilities has massively increased the speed with which experiments can be performed, while new methods and techniques have increased the amount of raw data collected during each experiment. While this has created enormous new opportunities, it has also created tremendous challenges for the national facilities and the users. Traditionally, users collect data during their assigned and limited beamtime and then spend many months analysing them. With the huge increase in data volume, this is no longer possible. As a consequence, only a small fraction of this multidisciplinary and scientifically complex Big Data are fully analysed and, ultimately, used in scientific publications. Therefore, in few years, as the Synchrotron Big Data do definitely overcome any conventional data analysis approach purely based on human resources, Users could then be incapacitated to produce meaningful science from their synchrotron experiments. This problem is even more evident in the case of XFELs, where tens of Petabytes are produced and must be analyzed annually. This is unfortunate because synchrotron beam-time is an expensive resource with respect to money as well as time. Secondly, a lack of appropriate data analysis approach limits the realisation of experiments that generate a large amount of data in a very short period of time, and thirdly, the current lack of automatized data analysis pipelines prevents the fine-tuning of an experimental run during a beamtime, thereby further reducing the efficiency of the beamtime potential usage. This effect, commonly known as the “data deluge”, affects the light sources worldwide in several different ways such as fast data collection and available local storage, curation of the data, including data movement and deposition in a database. In order to address these crucial Big Data challenges that affect synchrotrons world-wide, Prof. Alessandro Sepe is leading the deployment of a novel Big Data Science Infrastructure at the Shanghai Synchrotron Radiation Facility (SSRF), Zhangjiang Laboratory. Here, Synchrotron Big Data are totally integrated with Artificial Intelligence, High Performance Cloud Supercomputing and Real-time remote robotic experiments, in order to create the first-ever World-Class User-Friendly Superfacility, aimed at accelerating scientific discoveries and technological advancements. Here, also non-experts can obtain scientifically meaningful results in real-time from the multidisciplinary science at Large National Scientific Facilities, like SSRF and Zhangjiang Laboratory. This will effectively extend the use of synchrotron facilities to the largest plethora of scientific disciplines ever, thus dramatically increasing the scientific outcome of the Users at Large Facilities like SSRF, while aiming at supporting all the key national scientific needs in China. This seminar will focus on the solution that the Big Data Science Center at SSRF, Zhangjiang Lab is developing in order to address this Big Data deluge issue indeed, which poses a serious challenge to the scientific future of all the Synchrotron, Neutron and XFEL large facilities worldwide. In order to address this challenge, a highly coordinated scientific and technological initiative, bridging state-of-the-art science with the most advanced technology, is required. This seminar will thus cover all the most recent efforts in Big Data Science applied to Synchrotron facilities, as they are implemented at the Big Data Science Center at SSRF, Zhangjiang Laboratory, which represents the very first cornerstone for the creation of a Superfacility at SSRF, Zhangjiang Laboratory.
        Speaker: Prof. Alessandro Sepe (Big Data Science Center, Shanghai Synchrotron Radiation Facility (SSRF), Zhangjiang Lab)
      • 2
        重离子治疗装置离子源和回旋加速器控制系统
        介绍兰州近代物理研究所重离子治癌装置中离子源与回旋控制系统。会议特邀报告。
        Speaker: Prof. 彦瑜 王
        Slides
    • 10:20
      合影与茶歇
    • 大会报告II 贵州厅

      贵州厅

      遵义世纪柏源酒店

      Convener: Dr 刚 陈 (IHEP)
      • 3
        LHAASO探测器及其实验数据处理
        介绍LHAASO的探测器的组成以及实验数据处理。
        Speaker: Prof. 志国 姚
        Slides
      • 4
        上海自由电子激光(SHINE)及其科学数据系统规划
        硬X 射线自由电子激光装置(SHINE)是国家重大科技基础设施建设“十三五”规划优先启动项目,其目标是建设一台电子能量为8GeV的超导直线加速器,3条波荡器线、3条光学束线以及首批10个实验站。装置提供能量范围为0.4-25keV的光子,具备超高峰值亮度和平均亮度、高重复频率(可达1MHz)、飞秒级超快脉冲等优异特性,同时具备纳米级的超高空间分辨能力和飞秒级的超快时间分辨能力。首批实验站能够充分发挥高重复频率XFEL用户装置的多用户、超高空间分辨、超高能量分辨等突出优势,满足各类超快激光/超快电子/X射线泵浦-X射线探测高时间分辨实验的需求。 高重频X射线自由电子激光的技术挑战不仅来自于加速器、波荡器、精密X射线光学等关键技术,更来自于数据科学的挑战。高重频面探测器是SHINE高速数据流的主要来源,其工作频率可达100kHz至1MHz,数据采集速率将比低重频探测器提高三个数量级。不同于同步辐射光源基于光子累积的成像原理,SHINE装置将主要采用SASE(自放大自发辐射)运行模式,需要记录每次与样品作用后的X射线衍射图样信息。SHINE数据峰值流量的设计值为100GB/s,并可能在远期达到TB/s的量级,亟需数据分析手段的重大革新以应对未来高通量大数据的挑战。现有基于“科学计算密集型”的超级计算机系统架构,不能满足“数据密集型”的数据分析的要求。 SHINE的数据系统由数据采集与分析系统(DAQ)与高性能数据管理系统(DM)构成,目标是实现实验数据的快速缓存、高速传输、实时/离线处理以及高效管理和安全访问。数据采集与分析系统负责对探测器产生的数据进行采集、筛选、压缩和发送,同时对光束线与实验站产生的控制数据、诊断数据进行统一化管理与分析。高性能数据管理系统负责建设专用的数据中心,建立高速缓存系统、高速数据传输系统、高性能计算系统及大容量离线数据存储系统。它将DAQ系统采集的高通量数据通过在线高性能计算集群机进行处理和快速反馈,同时自动将数据通过高速网络传输到大容量离线存储系统中,在离线存储中由离线高性能计算集群机对数据进行分析处理,最终得到实验结果。 SHINE数据系统中将部署数据处理软件和数据管理软件,对数据进行预处理、分析和管理,可以实现统一数据存储服务与集中式系统管理、存储服务多用户快速访问、数据实时处理、数据远程访问;并将开发部署智能分析软件,将人工智能技术用于与数据的实时分析与反馈,实现诊断数据、科学数据的筛选、压缩与数据挖掘。 目前SHINE已经完成了数据系统的总体规划及数据中心的建安设计,并开展了高速数据获取、高速数据传输、大数据存储和管理、云计算与高性能计算及先进算法等研发工作。本报告将汇报SHINE数据系统的设计规划及最新进展。
        Speaker: Prof. 平 怀 (ShanghaiTech University ; Shanghai Advanced Research Institute)
      • 5
        高性能计算融合架构技术分享
        Speaker: Mr 铮 刘
    • 核电子学与探测技术I 丹霞厅

      丹霞厅

      遵义世纪柏源酒店

      Convener: Prof. 振山 季
      • 6
        兰州重离子医疗装置回旋控制系统中的连锁设计
        兰州重离子医疗装置的回旋加速器是同步环加速器的注入器,其控制系统在对设备连锁方面提出了较为严格的要求。本文介绍了在回旋加速器控制系统设计过程中,在设备软硬件连锁方面的设计,其连锁条件主要有真空度、水流状态、门禁信号、磁场、冷却水温 等。为保障连锁功能的稳定可靠,设计原则为尽量使用硬件连锁,无法实现硬件连锁时使用软件连锁,且保证这些连锁功能在设备断电、断水等不正常情况下保证设备安全。硬件连锁反应时间在毫秒量级,软件连锁反应时间在秒量级。所有连锁功能已完成测试,正在接受进一步的验证。
        Speaker: 建川 张 (中国科学院近代物理研究所)
        Slides
      • 7
        基于EPICS的HIRFL束流诊断控制系统升级
        兰州重离子加速器(HIRFL)提供的多种类、宽能量范围的高品质束流用以开展重离子物理、高精度的质量测量、原子物理以及交叉学科等实验研究。因此实现束流参数的准确测量是进行物理实验的前提保障。目前,HIRFL加速器控制系统已升级为EPICS架构,本文介绍了依赖于其下的束流诊断控制系统EPICS控制系统级现状,并利用升级后的控制系统测量了束流相关参数并分析了测量结果。其中,束流位置系统能够测量注入束流的逐圈位置信息,测量结果发现束流在注入过程中存在一定程度的震荡,影响注入效率。流强测量系统通过高分辨的数据采集卡实现对DCCT信号的精确测量,同时增加了D事例触发功能。升级后的控制系统运行稳定,可以实现束流参数的测量,并集成于加速器控制系统的EPICS CSS界面。
        Speaker: Dr 敏 李 (中国科学院近代物理研究所)
        Slides
      • 8
        基于RocketIO的低延迟数据扇出的研究
        **摘要**:CMS实验是LHC对撞机四大实验之一,为了提高触发效率,在CMS触发系统升级方案中增加了重叠区的触发逻辑。CPPF板卡的主要任务是将CMS系统端盖和重叠区的 1.6 Gb/s RPC探测器的光纤数据合并为 10.0 Gb/s 的光纤数据分别发送到重叠区OMTF板卡和端盖EMTF板卡。由于CMS系统重叠区和端盖区的数据有重复的部分,故有扇出需求。现有的链路扇出方案有两种:1.使用分光器直接进行光纤链路扇出,但是分光器会造成光强减弱,信号衰减,传输质量不可靠等问题。2.采用FPGA器件RocketIO固核做GTH通道扇出,则会增大链路扇出的延时。为了减小GTH扇出的延时,本研究提出一种新的扇出方案,即利用GTH的远端PMA回环模式进行扇出。该扇出方案既避免分光器对信号传输质量的影响,还能做到比一般的高速光纤传输通道的延时更小。经过实际的硬件电路长时间稳定测试,链路误码率(BER)< 10-15;利用工具ILA观测分析得出结果:在250Mhz链路参考时钟的设置下,采用远端PMA回环进行链路扇出相比于GTH通道扇出可以节约8个时钟。 **关键词**:CPPF; RocketIO; GTH; 延时; 扇出
        Speaker: Ms 含君 寇 (北京)
        Slides
      • 9
        应用于量子密钥分发系统的TCPIP卸载引擎的设计
        目前基于诱骗态BB84协议的量子密钥分发系统(quantum key distribution)已经在一定范围内得到应用。量子密钥分发系统在工作过程中,需要使用两条信道:一条是量子信道,在量子信道中完成量子态的传输。另一条是经典信道,网络,量子密钥分发的双方Alice和Bob需要通过网络完成基矢比对等数据后处理过程中的信息交互。目前量子密钥分发系统的安全成码距离已经达到百公里以上。中科大在2016年实现了超过400公里的测量器件无关量子密钥分发。在如此远的距离上实现双方可靠的信息交互,需要使用可靠的网络通讯协议,即TCPIP协议。而且随着QKD系统对成码率要求的不断提高,数据后处理过程对网络带宽的需求也在不断提高,如何在QKD系统中实现安全的,快速的网络交互成为一个不可回避的问题。在目前的QKD系统中,通常使用CPU来实现TCPIP协议栈。在远距离网络交互的过程中,必然会出现报文乱序,报文丢失,报文比特翻转等网络中常见的错误。QKD密钥分发的过程中需要进行大量的数据交互,要求TCPIP协议栈能够快速的处理大量报文的解析,重排,窗口滑动等过程。如果使用软协议栈的方式实现,一是由于软件易受攻击,安全性会降低,这对于QKD系统来说,是不能忍受的;二是处理网络报文会消耗CPU大量的资源。基于以上考虑,我们将TCPIP协议硬化,研发了TCPIP协议卸载引擎,将网络数据传输模块作为CPU的外设,来实现高效的、安全的网络通讯。同时,在TCPIP里面做了加密和解密模块。在发送端,所有通过TCPIP传输的数据都进行加密后再发送,在接收端,所有数据解密后再交给用户。并且加密解密的密钥都来自QKD系统,提高了网络通讯的安全性。
        Speaker: Dr 晓东 钟 (中国科学技术大学)
    • 用户类大科学装置信息化I
      Convener: Prof. 中明 储 (高能所)
      • 10
        欢迎辞及介绍Session的背景和目标
        Speaker: Dr 刚 陈 (高能所)
      • 11
        Data Platform and Data Catalogue for SSRF
        Speaker: Prof. Sepe Alessandro (Shanghai Synchrotron Radiation Facility (SSRF), Zhangjiang Laboratory)
      • 12
        SHINE数据采集、传输与存储的挑战
        硬X 射线自由电子激光装置(Shanghai HIgh repetition rate XFEL and Extreme light facility,简称SHINE)是国家重大科技基础设施建设“十三五”规划优先启动项目。SHINE装置提供0.4-25keV能量范围的光子,其脉冲具备超高峰值亮度和平均亮度(可达到第三代同步辐射的10^9倍)、高重复频率(设计重复频率可达到1MHz)、飞秒级超快脉冲(脉冲宽度<100fs)、强空间和时间相干性等优异特性,具备纳米级的超高空间分辨能力和飞秒级的超快时间分辨能力。 由于SHINE装置光子所具有的优异特性,可以实现对“活”的样品进行测量,也就是可以实现在样品损坏前进行成像(diffraction before destruction),因此对飞秒串行晶体学(Serial Femtosecond Crystallography)、单颗粒/单分子成像(single particle imaging)等实验带来了质的飞跃,将实验分辨率的精度提高到~nm的量级,同时对实验数据处理带来了前所未有的挑战。 对于样品损坏前进行成像的实验,需要做到对每一发脉冲都要进行成像,同时由于大型面阵探测器的使用,在装置运行初期,其数据产生通量可达到20GB/s@10kHz,随着探测器像素数量的增加以及激光脉冲频率的提高,其数据产生通量可以达到TB/s的数量级。该数据通量对传统的IT设备在数据采集、数据传输、数据存储和数据分析上都带来了前所未有的挑战。 为了实现将如此高通量的数据记录下来,需要对数据进行预处理,我们拟采用流水线方式对数据进行筛选与压缩,拟大规模采用FPGA进行数据预处理,将无意义的数据进行删除,最后将保留下来的数据进行压缩,写入快速存储中。以相干衍射实验为例:将样品通过注入器高速喷出,同时将激光脉冲对准样品流进行测量,由于探测激光脉冲对样品的命中率并不高,按照目前世界上已经有的经验来看,其可以将90%的数据筛选掉,从而可以极大的减小数据传输、数据存储以及后期数据处理的压力。 在本次报告中,将汇报SHINE数据采集、传输与存储所面临的挑战,以及应对策略。我们拟采用数据分级方式进行处理:(1)数据采集系统,主要由FPGA板卡组成,负责采集探测器上的数据;(2)数据筛选系统,主要由FPGA板卡组成,负责对数据进行预处理,比如刻度,然后按照给定的条件对数据进行筛选,将无科学意义的数据删除掉,保留有科学意义的数据,然后将有意义的数据进行无损压缩;(3)在线快速反馈系统,主要由高速存储和高性能计算集群机组成,负责将数据约简系统的数据存储下来,然后进行快速分析,得到粗粒度的结果;(4)离线数据分析系统,主要由海量存储和高性能计算集群机组成,负责对数据进行精细分析和离线重构,得到最终实验结果;(5)高速网络系统,主要采用基于TCP/IP的万兆网络进行系统间的传输,Infiniband网络用于服务器之间的高速数据交换。
        Speaker: Wujun Shi (S)
      • 13
        SHINE数据分析软件平台的需求分析
        Speaker: 晓峰 张 (上海科技大学)
      • 14
        天文领域科学数据管理
        Speaker: 琳莹 米 (中国科学院国家天文台)
      • 15
        大连光源控制系统简介与未来发展计划
        Speaker: 磊 史 (中国科学院大连化学物理研究所)
    • 15:40
      茶歇
    • 数据处理与物理软件I 丹霞厅

      丹霞厅

      遵义世纪柏源酒店

      Convener: 志国 姚 (高能所)
      • 16
        深度学习在LHAASO数据分析中的应用
        **摘要:**高海拔宇宙线观测站(Large High Altitude Air Shower Observatory, LHAASO)项目是由中科院高能物理研究所承担,国内外多家单位联合,在海拔4410米的四川省稻城海子山建立的大型科研项目。LHAASO是一个复合型探测器阵列,由KM2A、WCDA和WFCTA这三个子阵列组成,将会在$10^{11}$eV 到$10^{15}$eV 对北天区伽马源进行巡天扫描同时也会对$10^{13}$eV到$10^{17}$eV的宇宙线分成分能谱进行测量。一平方公里探测阵列(KM2A)是LHAASO的主阵列,主要测量$10^{13}$eV到$10^{15}$eV的高能伽马射线。KM2A包含电磁粒子探测器阵列(ED)和μ子探测器阵列(MD)。其中电磁粒子探测器阵列主要用于记录宇宙线经过广延大气簇射以后产生的次级粒子数密度和到达时间,用于重建原初宇宙线的方向和能量,μ子探测器阵列主要测量簇射中的μ子信息,用于成分的鉴别。 LHAASO实验的核心科学目标是通过伽马射线测量探索高能宇宙线起源并开展相关的高能辐射等研究,伽马射线和强子宇宙线鉴别是LHAASO开展相关科学研究的重要基础和前提。由于探测器得到的数据事例大多数是宇宙线中的带电粒子所贡献的,所以KM2A阵列想要实现探测高能伽马射线源的科学目标,则需要在大量的宇宙线背景中的挑选出伽马射线。所以伽马射线和宇宙线的成分区分能力至关重要,此前的成分区分方法主要以μ子数与电子数的比值作为特征区分和基于多变量分析(TMVA)中的机器学习方法,如随机森林(Random Forest, RF)、人工神经网络(Artificial Neural Network, ANN),此方法的优点是训练速度快和计算机硬件条件不需要太高,其缺点是需要人工选取特征和不能提取更深层维度的特征。近年来深度学习飞速发展,各种新的理论技术不断涌现并逐渐趋于完善,并且各种新的神经网络结构被提出,如卷积神经网路(Convolutional Neural Networks ,CNN)、循环神经网络(Recurrent Neural Network,RNN)和长短期记忆网络(Long Short-Term Memory,LSTM)等,正在逐渐应用于各个领域中。深度学习优势是可以直接基于大量原始信息进行分析和提取更深层维度的特征进而达到精确区分的目的。 本课题将基于谷歌公司开发的开源人工智能框架TensorFlow,以LHAASO实验装置的KM2A的所有探测器记录信息作为输入数据,对数据进行重建进而实现噪声过滤,利用光电子数并将ED和MD阵列图像化,每个事例的训练数据是两张图片,分别为ED阵列和MD阵列的探测器被触发得到光电子值,再将阵列位置信息添加到模型训练中,以能量进行划分区间。改进LeNet卷积神经网络结构,使用ReLu激活函数,并使用随机失活(Dropout)方法防止模型过拟合等,最终首次基于深度学习得到了KM2A在不同能量处的伽马质子区分能力,即Q因子和ROC曲线。另外,本结果还与传统的方法进行了比较。 **关键字:**宇宙线;LHAASO实验;KM2A阵列;深度学习;卷积神经网络
        Speaker: Mr 秀林 陈 (中科院高能物理研究所)
        Slides
      • 17
        HXMT卫星在线数据处理系统
        慧眼(Insight-HXMT)卫星在线数据处理系统是HXMT卫星科学数据中心的主要组成部分之一,主要承担HXMT卫星各级科学数据产品生产、科学数据监测、科学数据快视等在线数据处理任务。系统由任务调度、系统监管、数据处理软件框架、数据处理功能插件、数据访问层等功能组件构成。系统建成之后,在卫星在轨测试阶段经历多次改进和优化,同时根据科学研究需要,扩展了系统的新功能。该系统的可靠性、可扩展性已经在HXMT科学数据中心的日常运行中得到验证。本报告主要介绍HXMT卫星在线数据处理系统的功能架构、设计思路以及实际运行效果,期待与同行就此类系统的共性问题和不同应用的个性化方案交流与探讨,并得到国内外专家的指正。
        Speaker: Mr 建胤 聂 (高能所)
      • 18
        利用神经网络拟合加速器中的非线性动力学
        人工神经网络是人工智能研究的热点之一,它的本质是一个由大量节点连接而成的抽象网络,这些节点被称为“神经元”。通过建立类似生物神经系统的“神经网络”模型,用已有的数据对模型进行拟合,在模型拟合到一定程度后用于对新数据的结果预测。神经网络各个节点之间仅仅由一个简单的函数和一个加权因子连接,这个函数被称为激励函数,加权因子则被称为权重。然而,这样一个由大量简单神经元组成的神经网络却有可能拟合许多极其复杂的非线性关系。粒子加速器的设计和参数优化工作恰好会面对许多错综复杂的非线性问题。本文中,作者使用正在设计优化中的高能同步辐射光源(HEPS)的磁聚焦结构(lattice),利用虚拟加速器软件进行电子的跟踪模拟,并根据追踪模拟的结果计算出不同lattice硬件参数下,HEPS的非线性动力学孔径和亮度,产生了大量的数据。基于这些数据建立合适的人工神经网络,并利用它们训练神经网络,最终得到了一个可在一定范围内通过硬件参数预测当前lattice结构下的HEPS的动力学孔径和亮度的神经网络。该神经网络在一定的变量空间内,对完全通过粒子追踪模拟计算得到的亮度的预测准确率接近100%。在同样的变量空间内,该神经网络对由粒子追踪方法和电子工作点频谱分析方法结合得到的动力学孔径的预测也有超过95%的准确率。这一研究提供了一种在粒子加速器的设计优化过程中,可以不通过费时的粒子追踪模拟来获得当前lattice的非线性参数的方法,能大幅缩短对加速器lattice参数优化所花费的时间。这一方法同样适用于亮度和动力学孔径以外的其他复杂非线性参数的优化。
        Speaker: 金宇 万 (高能所)
        Paper
        Slides
      • 19
        新型分布式磁盘存储系统EOS在LHAASO实验上的应用
        EOS(Exabyte Scale Storage)是一个开源的分布式磁盘存储系统,其设计目标是为LHC实验提供低延迟、高性能的EB级磁盘存储服务。系统自2011年在欧洲核子研究中心上线使用以来,已支持Atlas、CMS、Alice、LHCb等多个实验,存储规模已超过250PB。EOS目前已经成为CERN最主要的物理数据存储方式。我国高海拔宇宙射线观测站(LHAASO)实验致力于探测高能宇宙线起源研究,建成后预计每年大约产生6PB数据,对数据存储系统要求很高。EOS的出现为LHAASO的实验数据存储提供了新的解决方案。基于此,高能所目前已搭建约2PB规模的EOS存储系统用于支持LHAASO实验前期的模拟分析。本文将详细介绍EOS系统的功能特性以及部署应用情况,并就EOS将来的发展方向进行探讨。
        Speaker: 海波 李 (高能所)
        Slides
      • 20
        PET回旋加速器控制系统软件设计与开发
        PET制药回旋加速器能提供10Mev质子束流,束流强度为50eμA。加速器加速H-离子束,H-离子能量被加速到10MeV时通过剥离引出方式得到能量为10MeV的质子束。控制系统整体采用分布式控制结构。硬件上使用标准插件、商业控制模块和自行设计开发模块。软件方面,使用VC++开发平台,并选择SQLite嵌入式数据库作为数据平台。软件设计方式采用面向对象设计方法,设计机构更简单,可移植性强,结构层次清晰。通信、数据显示、数据存储、连锁线程模块都是模块化设计,有利于新模块、新功能的添加。实现了联锁保护功能。
        Speaker: 建军 宿 (中国科学院近代物理研究所)
      • 21
        HEPS机器学习平台的开发及应用
        HEPS是设计周长为1360 m、能量为6 GeV且具有超低发射度的高能同步辐射光源,包含直线加速器、增强器、储存环、低能输运线和高能输运线5个部分,可容纳多达90条光束线。对于这样一个大型加速器,存储的数据量庞大而复杂,把机器学习的技术应用在加速器上是一个很好的机会。相比于传统技术、人力工作经验,机器学习技术通过对一定量数据的学习,根据目的或者数据特征选取合适的算法,训练出模型,实现分类、预测、回归等功能,获取粒子加速器产生各种数据中的关键信息、隐含信息,更好的为设备运行及调试提供帮助。本文主要介绍粒子加速器机器学习平台的想法、开发以及应用,侧重于真实数据的操作。首先对整个粒子加速器软件平台架构及机器学习平台进行介绍,主要划分为数据获取,数据清洗,通用算法训练,结果可视化几个模块,其中最重要的两个部分是数据和算法,本文侧重点在于数据的获取与预处理。数据部分包括基于EPICS CA和PV Logger采集的实时数据、EPICS数据存档工具获取的历史数据做规范及预处理,算法部分提供简便易用的训练算法API。其次,介绍利用此平台对机器的真实数据做分析可实现的应用。
        Speaker: Ms 宇 白 (IHEP)
        Slides
      • 22
        海量多源异构空间科学数据高效可视化管理
        随着空间科学技术的快速发展和飞行平台的长期在轨运行,采集的空间科学数据(不仅仅遥感影像)越来越多,已日渐成为空间科学、地科学等多学科研究的重要数据源。针对空间科学数据的多源、异构、多时相、多尺度等一系列特征,如何有效的组织与管理海量多源异构空间科学数据,提高数据的可用性和安全性,成为空间信息科学领域重要研究内容之一。 在调研现有空间科学数据管理技术及数据特征的基础上,提出并设计了一种有效的系统组织架构,综合利用关系型和分布式相结合的数据库技术,实现海量异构数据的高效检索与定位,基于三维数字地球模型,采用多层次细节展示、三维数据剪裁、多线程并行加载等技术,提高了空间科学数据的可视化展示与应用效率,最后实现了海量多源异构空间科学数据可视化组织与管理系统。 首先,提出并设计了基于MVC(Model View Controller)的系统组织架构,分为数据层、服务层和应用层。数据层是整个系统正常运行的基础,提供多源、异构、多时相、多尺度的原始数据及属性信息文件;服务层是整个架构组织的核心层,针对数据查询、提取、加载、显示等要求,利用多线程池处理机制,快速响应并发的数据服务请求;应用层是整个系统的人机交互接口,基于统一的应用服务接口,提供高效的空间科学数据可视化管理操作。 其次,针对空间科学数据结构差异大,利用空间关系数据库与分布式NoSQL数据库相结合的方式构建数据管理服务,实现整个系统的空间数据的高效管理。采用定时器与触发器机制,在指定的时间或情况下,按深度优先遍历算法检测新增的数据文件,对每一个数据文件都开启一个线程进行处理,实现并行化数据自动入库;建立元数据库,通过空间位置信息等属性快速定位数据;采用分片机制对系统进行动态横向扩展, 增加了系统的存储容量和吞吐量;同时数据分散在复制集与分片上,保证了数据安全性及高可用性。 再次,针对空间科学数据的重要数据之一——遥感影像数据,利用LOD无缝镶嵌方法,将空间数据与空间尺度和位置以及可视化关联起来,形有基于三维数字地球的空间位置标识和空间对象标识,更加直观、高效的管理遥感影像数据。为减少影像加载时占用的系统资源开销,提高读取及可视化速度,利用影像缩略图及其金字塔模型、线程池和数据裁剪等多重机制确保可视化显示的效率。 最后,完成了基于三维地球的空间科学数据可视化管理系统的功能集成。系统已成功应用于载人航天空间应用任务天宫一号、天宫二号的空间科学数据管理中,集成整合了约35TB的空间环境探测数据、高分辨率遥感影像、空间矢量数据等多类型数据,实现三维地球空间中的海量多源异构空间科学数据的快速可视化查询、定位、下载等管理功能,为海量多源异构空间科学数据的分发服务提供有力的技术保障。
        Speaker: Mr 志文 刘 (中科院空间应用工程与技术中心)
    • 用户类大科学装置信息化II 遵义厅

      遵义厅

      遵义世纪柏源酒店

      Convener: 平 怀 (Shanghaitech University)
      • 23
        HEPS成像线站(B7)的科学数据获取及其挑战
        Speaker: 刚 黎 (高能所)
        summary
      • 24
        HEPS IT设计总体
        Speaker: Mr 法制 齐 (高能所)
      • 25
        科学用户服务系统(CSNS)
        Speaker: 亚康 李 (高能所)
        Slides
      • 26
        HEPS科学数据管理设想
        Speaker: Mrs 皓 胡 (高能所)
      • 27
        CSNS/HEPS科学数据处理软件的设计和开发
        随着科研设备的发展与实验技术的进步,现代科学实验数据的种类和规模正在快速增长,如何利用多核、众核以及网格计算、云计算等信息技术的最新成果,提升数据处理和数据挖掘的能力,已经成为当代实验科学的一个重要课题。本文总结了作者使用和参与开发多个计算密集型科学数据处理软件的研发经验,结合这些科学软件的不同应用场景,介绍了一种以数据为中心采用面向接口编程范式的软件架构及其技术实现。
        Speaker: 俊荣 张 (高能所)
      • 28
        计算及存储架构及资源组织
        Speaker: Ms 京燕 石 (高能所)
      • 29
        SPS IT预研规划
        Speaker: 俊荣 张 (高能所)
    • 用户类大装置信息化: 讨论 遵义厅

      遵义厅

      遵义世纪柏源酒店

      Convener: Mr Fazhi 齐法制 (高能所)
    • 大会报告III 贵州厅

      贵州厅

      遵义世纪柏源酒店

      Convener: 海巍 范 (上海科技大学)
      • 30
        科学大数据管理技术与系统
        介绍科学大数据管理技术与系统国家重点研发计划项目进展和成果
        Speaker: Prof. 建辉 黎 (中国科学院网络信息中心)
      • 31
        数字社会环境下的虚拟核电站Virtual4DS研发进展
        数字社会环境下的虚拟核电站Virtual4DS研发进展
        Speaker: Dr 雷明 尚 (中国科学院核能安全技术研究所-FDS团队)
      • 32
        AI计算技术发展与分布式训练实践
        Speaker: 跃 吴
    • 10:30
      茶歇
    • 大会报告IV 贵州厅

      贵州厅

      遵义世纪柏源酒店

      Convener: 海巍 范 (上海科技大学)
      • 33
        China-VO Paper Data Repository
        介绍中国虚拟天文台PaperData论文数据贮藏库的情况,包括DOI支持、版本控制,与VOResource的结合以及被国外认可的情况等。
        Speaker: 辰州 崔 (国家天文台)
      • 34
        中国农业科学院信息化基础设施及服务平台
        Speaker: 火国 郑 (中国农业科学院网络中心)
        Slides
      • 35
        面向业务不确定的数据中心网络
        Speaker: 子航 宋
    • 核电子学与探测技术II 丹霞厅

      丹霞厅

      遵义世纪柏源酒店

      Convener: 革 金 (USTC)
      • 36
        关于CMS实验中CPPF系统双固件加载的实现
        **摘 要**: CPPF系统是CMS实验一期项目中规划的一级触发升级子系统之一,高能所触发实验室承建了该系统中CPPF硬件电路板的设计建造以及相应固件软件开发实现等工作。整个系统由一台microTCA机箱,一个MCH,一个AMC13以及八块CPPF硬件电路板构成。本文则是针对CPPF系统的固件安全性进行的相关研究,根据CMS实验合作组的规划,CPPF固件需要合并RPC探测器的数据,同时还要提供簇查找、角度转换等算法,最后依据触发系统提供的一级触发接受信号将事例筛选后读出,另外,CPPF固件还提供了用来支持基于IPBus协议的上位机软件SWATCH的监控功能的接口。在实际运行期间,针对不同的运行目标,CPPF系统也需要对自身固件功能作出相应调整,而取数时如何选择合适的固件版本,同时如何将固件版本信息和相应配置信息保存下来以供后续的离线分析来做相应识别和匹配,则显得尤为重要。本研究通过在CPPF原始固件中设置寄存器来记录版本信息,同时提供版本选择功能,由上位机发送往FLASH内烧写固件和选择FPGA实际使用的版本的指令,以远程自动化的方式实现了双版本固件的加载,极大地避免人为因素导致的系统故障。测试结果显示依据本研究提供的方式,不同版本的固件均能够正常工作,同时版本切换能够在几秒内进行完成,证明了本研究对固件安全性的保护是可靠且高效的。 **关键词**:CMS;CPPF;一级触发;microTCA;FPGA;双固件加载;
        Speaker: 鹏程 曹 (高能所)
        Slides
      • 37
        MAPS像素探测器数据获取系统的研制
        MAPS像素探测器数据获取系统的研制 ------------------             吴冶1,2,3,卢晓旭1,2,3,章红宇1,2 (1.核探测与核电子学国家重点实验室,北京 100049;2.中国科学院高能物理研究所,北京 100049;3.中国科学院大学,北京 100049)                       **摘要**     针对BESⅢ漂移室内室改进的要求,与法国 Strasbourg IPHC 研究所合作开展单片型有源像素探测器(Monolithic Active Pixel Sensor,简称MAPS)芯片研究,建造 1/8 内室规模的 MAPS 像素探测器模型,并进行 放射源测试和束流测试。通过模型的建造和测试,可以研究像素探测器的性能并掌握制作过程中的关键技术。本文详细介绍了MAPS像素探测器模型的配套数据获取系统的研制。   MAPS项目电子学采用柔性板,每块板装配10块Mimasa28芯片,使用闪烁体信号扇出trigger信号,电子学数据通过千兆网线连到交换机之后到传输到数据获取计算机。   MAPS项目数据获取系统分为电子学配置、数据读出、事例筛选、在线组装和在线显示,等模块,本文分别阐述了上述模块的研制思路以及从单条Ladder--单模块,单条Ladder--整系统,5条Ladder--整系统调试过程中遇到的问题与解决方法, 最后介绍了在法国Strasbourg的IPHC研究所对整个数据获取系统进行优化改进,以及前往德国DESY进行束流测试实验。数据获取软件除完成各项取数任务外,还需完成实验状态记录,实验进程监测等任务,完成各类出错的处理,并提供完善的用户界面。
        Speaker: 吴冶
        Paper
        Slides
      • 38
        大科学装置用关键器件批量测试数据库的实现
        在各个大型中微子观测实验中,均有不同程度的针对探测器器件单元的批量测试数据管理的需求,典型的包括用于北京谱仪(BES Ⅲ)及大亚湾中微子实验(Daya Bay Reactor Neutrino Experiment, Daya Bay)实验中的阻性板计数器(Resistive Plate Counter, RPC),用于江门中微子实验(Jiangmen Underground Neutrino Observatory,JUNO)及高海拔宇宙线观测站 (Large High Air Altitude Shower Observatory, LHAASO)的各种型号的光电倍增管(Photomultiplier Tube,PMT)等。以光电倍增管为例,同一只PMT需要关注的参数极多,除了量子效率(Quantum Efficiency, QE),探测效率(Detection Efficiency, DE),增益(Gain)等性能参数外,出厂时间及分压参数等同样也是关注的要点。无论是在整个实验的前期进行的质量监控及器件筛选,或是在整个实验搭建起来后对于实验数据进行的存储、管理及一些简单的数据处理,为了管理在此过程中产生的大量的数据,一个完善的质量控制数据库是必不可少的。 在搭建数据库的过程中,综合考虑到开发的资源限制、维护成本及整个数据库功能完整性三个方面,以及在智能手机功能强大与广泛普及的现状,质量控制数据库使用了混合移动开发架构开发,使之可以同时工作于Web及手机应用端。前端以AngularJS框架为基础,使用Ionic架构进行搭建。Ionic在AngularJS的基础上进行了扩展,丰富了AngularJS的UI组件及功能。后端采用了Node.js的服务框架,并使用Express为应用程序提供HTTP工具。最后,数据库采用了MySQL关系型数据库系统,有着体积小、速度快及开源等优点。搭建好的质量控制数据库以Angular.js、Ionic为前端,Node.js和Express为后端服务,搭配MySQL数据库可以使用同一套代码运行于电脑及智能设备的Web端,并允许打包生成运行于安卓系统的应用安装程序。 目前质量数据库已搭建完成并投入使用。数据库代码与数据均保存于云端,数据上传功能使用CSV(Comma Separated Values) 格式进行编码批量上传,这一功能依赖csv-to-mysql插件实现。数据查询功能分为数据库主动历史数据显示,和被动数据分析两类。前者是指单一参数长期数据的历史趋势图自动显示或自动生产统计直方图;后者是用户自主选择两组数据分析其相关性,或依据需求对数据库中数据进行多重条件选择的精确查询。除以上数据库的基本功能外,本数据库采用了shibboleth的单点登录机制,实现了用户管理功能,合作组成员无需额外注册,只需要使用其合作组内的账号即可登录,从而确保用户方便使用。在移动端应用程序方面,可以通过调用手机摄像头实现二维码扫描的功能,直接录入每一支光电倍增管的编号,得到其对应的性能参数,安装位置,当前存储位置以及和电子学通道的映射关系。 目前该质量控制数据库已具备对实验项目中测试数据进行跟踪记录及精确查询等功能,并对其进行相关性和稳定性分析,为应用于大科学工程的批量探测器件的质量控制和刻度,进行提供有力的保障。
        Speaker: Mr ZHE NING (Institute of High Energy Physics)
        Slides
      • 39
        CDAS:一种高效的存储联盟数据访问系统
        高能物理实验通常会产生海量实验数据,随着越来越多的实验装置投入运行,实验数据的增长也越来越快,这些数据在分布式站点上存储,通过分布式数据管理系统组织和管理。随着资源的不断优化,针对新的应用场景和技术需求,传统的分布式数据管理系统面临着很多挑战,比如全局命名空间的快速构建、异地站点数据的高效访问和存储等。针对这些问题,本文提出了一种高效的存储联盟数据访问系统CDAS。 CDAS作为分布式站点间的数据缓存和访问系统,采用边缘计算的思想,允许在远程站点动态地构建数据联盟内的全局命名空间,并且支持灵活的数据缓存与同步、数据去重与压缩存储等机制,在联盟中实现了全局命名空间的快速构建、异地数据的高效访问以及存储空间的高利用率。 CDAS由四部分组成,分别是元数据服务器、缓存服务器、存储优化引擎以及数据访问接口,四个部分的具体描述如下: 元数据服务器将拥有XROOTD、HTTP或S3等协议的分布式站点目录进行聚合,并记录文件的各类信息,按需实时地为用户提供联盟内全局命名空间,使用户无需考虑数据的实际存储位置,同时隐藏站点协议的多样性,最终实现全局命名空间的无差异视图; 缓存服务器用于对客户端文件实体以及文件元数据信息的缓存和同步,文件实体的缓存和同步以数据块为单位,对于用户本地缓存中已存在的数据块不再进行重复的传输和存储,同时支持灵活的本地站点新文件的同步回传策略。通过缓存和同步机制,最终加快联盟内的数据访问速度和全局命名空间构建速度; 存储优化引擎基于数据重删机制和数据压缩机制,目的是优化数据实际存储所需空间。其中,数据重删机制用于降低数据块之间的数据冗余,采用在线定长块去重的策略,将单个数据块与唯一编码相对应,在数据块传输之前预先传输数据块编码至目标站点,存在相同编码则认为存在相同数据块,此时不再进行数据块传输,确保目标站点已存储的数据块不再重复传输至该站点,规避了同一数据块在同一站点冗余存储所造成的时间和资源浪费;同时,数据压缩机制用于降低数据块内部的数据冗余,保证传输到站点的新数据块在压缩后存储,有效降低新数据块所占用的存储空间,进一步提高联盟内站点存储资源利用率。 数据访问接口提供命令行和FUSE客户端,保留用户习惯并且屏蔽联盟内数据访问流程的复杂性与异构性,提供本地化的统一访接口,最终实现分布式站点间透明的数据共享。 本文中的存储联盟由分布在成都、稻城和北京的存储站点组成,站点中存储了LHAASO实验产生的海量数据。基于LHAASO实验数据的测试表明,CDAS能够将分布在成都、稻城和北京的存储数据聚合成统一的全局命名空间,缓存机制能够将数据访问性能提高10倍以上,存储优化引擎使得原始实验数据的存储空间占有率降低50%左右。
        Speaker: 世园 符 (中国科学院高能物理研究所)
        Slides
    • 科学计算与数据管理I 遵义厅

      遵义厅

      遵义世纪柏源酒店

      Convener: Ms 京燕 石 (高能所)
      • 40
        基于WEB的科学计算命令行接口工具
          命令行接口(Command Line Interface, CLI)是计算机操作系统或者应用程序为用户提供的交互接口。由于占用资源少、操作速度快和通用性等方面的优点,命令行接口目前仍然是科学计算领域的重要交互界面。区别于图形化接口的简单易用性,命令行接口的学习门槛比较高,特别是访问由各类异构化资源组成的科学计算平台。从安全方面考虑,考虑到命令行接口的灵活性和强大功能,很计算资源不但要求命令行接口终端软件必须运行在指定的计算机或者必须通过VPN等安全网络进行连接,而且还要求用户使用复杂密码信息或者多因素认证完成登录操作。从资源异构方面考虑,计算资源上运行的不同作业管理系统提供了功能基本相同的命令行接口,但这些命令在语法和功能方面存在很多细节上的差别,用户必须学习多种命令行接口并区分这些细节方面的差异。   综合考虑以上问题,本文提出基于WEB页面的命令行接口工具WEBCLI,平滑CLI的尖锐学习曲线,融合图形化界面简单易用和上手快的优点,面向科学用户提供简单易用和安全的命令行服务。WEBCLI在前端WEB页面上模拟一个命令行窗口,该窗口通过web socket连接到后端WEB服务; 后端WEB服务调用SSH(Secure Shell)客户端连接远端的异构计算资源。与常见的基于WEB的SSH工具相比,用户通过WEBCLI输入的命令不会直接发送到远端的计算资源,而是由WEB服务接收并完成安全、易用和统用等方面的处理后再转发到计算资源并执行命令。   WebCLI是典型的浏览器和服务器体系结构,其后端WEB由4个相对独立的服务组成。命令组合服务旨在接受来自浏览器中运行的终端所输入的字符,组合为一个统用命令。WEBCLI提供一组简单易用的作业、数据、应用和资源等方面的命令,以屏蔽由各种作业管理系统和计算资源的定制要求引起的语法上的细微差别。在易于使用的方面,命令推荐服务旨在帮助用户根据个人历史命令、用户行为、全局数据和不同的偏好配置,编写和完成具有多个选项的复杂命令。在通用性方面,命令格式转发服务负责将统用格式的输入命令转变为远端计算资源所支持的格式,从而屏蔽不同作业管理系统和计算资源带来的差异。在安全方面,安全和风险服务旨在检查每个命令是否获得基于多级白名单和黑名单的执行权限。如果任何命例如删除命令将导致不可恢复的结果,它还会向用户显示警告。   基于Vert.x和xterm.js等相关开源软件,本文设计了和实现了WEBCLI的原型系统以验证技术方案的可行性和可用性。用户第一次使用WEBCLI时,所用的账号及凭证信息直接传输到远端的计算资源并验证是否登录成功,WEBCLI不会缓存和存储账号的敏感信息。若用户登录成功,WEBCLI会引导用户设置证书登录功能。此后,用户再次访问WEBCLI时,可以选择合适的证书并直接登录远端计算资源。证书数据受WEBCLI所在WEB平台的保护,每个用户只能访问和使用他们自己的证书。若远端资源不支持证书登录,用户只能每次输入账号和凭证信息登录远端服务,然后使用WEBCLI的简单、易用和通用的命令行服务。   基于Web服务和事件总线技术,针对命令接口的易用、安全和学习门槛高等问题,本文提出了一种简单有效的科学计算命令行接口解决方案,完成了验证性的原型系统。在原型系统的基础上,本文将完善WEBCLI的各项服务,形成WEBCLI在人工智能领域的典型示范,最终为人工智能计算与数据服务平台的初学者和专业用户提供易于使用的Web CLI。
        Speaker: Dr 荣强 曹 (中国科学院计算机网络信息中心)
        Slides
      • 41
        虚拟化技术在高能物理计算中的应用
        高能物理计算是数据密集型计算,对云计算有着强烈的需求。为更好的利用计算资源,提高资源利用率,高能物理界在云计算领域开展了大量的工作。本文将首先介绍各种虚拟化技术,包括KVM,容器及虚拟机管理软件Openstack等,接着重点介绍虚拟化技术与高能物理计算的结合与具体实践,最后给出虚拟化技术在高能物理实验的实际应用情况,很好的证明了虚拟化技术在灵活部署、提高资源利用率以及降低运维成本方面的优势。
        Speaker: Dr 秋兰 黄 (高能所)
      • 42
        高性能计算资源聚合服务在中国科技云门户的快速集成研究与实现
        高性能计算环境聚合国内优秀的高性能计算资源,面向用户提供便捷的高性能计算服务。其中,系统核心软件SCE实现了环境资源聚合和统一调度,面向高性能计算用户提供了便捷可靠的新型服务方式;环境通用计算平台为用户提供了方便的Portal,用户可以直接通过Web提交自己的作业,同时平台可提供个性化的资源推荐服务;服务化应用开发平台中的REST风格的SCEAPI,支持跨平台和语言开发,提供计算、文件等多项资源的接口,应用平台可通过调用接口快速访问环境中资源。 中国科技云是《中国科学院“十三五”信息化发展规划》重点建设任务之一,目标是热情服务中国科技工作者,汇聚融合先进网络、高性能计算、科学数据、软件社区、信息资源,支撑信息化时代的科技创新,让计算与数据驱动科学发现。用户通过实名注册中国科技云通行证,即可进入中国科技云门户使用其提供的各项服务。 目前,高性能计算资源聚合服务的通用平台Portal采用网格账号登录使用而中国科技云门户通过通行证账号登录使用。另外,网站设计风格、规范也不相同。为快速在中国科技云门户中集成高性能计算服务,在以下几个方面进行了研究并实现:账号认证和权限管理、页面对接、接口对接。首先,账号认证和权限管理方面实现通行证账号能够进入高性能计算通用平台并获取其中的资源信息。为实现这一目标,我们研发了高性能计算环境第三方平台接入系统。接入系统主要包括账号和资源两个模块。账号模块负责实现第三方平台账号的认证并将其转换为网格账号,记录账号之间的映射关系。只要科技云平台用户首次登录时实现了账号之间的映射,下次登录后可直接使用高性能计算资源聚合服务。资源模块负责权限的管理,根据账号的来源和个人信息,我们设置不同的权限来访问高性能资源。其次,页面对接方面,为实现与科技云门户页面的无缝对接,对高性能通用平台Portal中的页面进行评估,并修改使其可嵌入到科技云门户中。现在的目标是科技云网站能够直达应用的提交页面和作业管理页面。这两类页面都是在登录前提下查看的,所以这两类页面必须确保正确处理登录流程,获取登录信息。最后,科技云平台设计了统一的资源展示页面,为此还需提供相应的接口,通过接口直接获取资源信息。根据科技云的需求对通用平台上已有接口进行封装,新接口重新实现。用户通过通行证登录后即可通过接口获取资源,否则提示错误信息。 通过研究和实现账号、页面和接口三大模块,高性能计算资源聚合服务可快速集成于中国科技云门户。用户只要注册中国科技云通行证即可登录科技云门户,从而使用其中的高性能计算服务。
        Speaker: Mrs 荣 和 (中国科学院计算机网络信息中心)
      • 43
        基于Kubernetes的容器化数据库服务平台
        基于Kubernetes的容器化数据库服务平台 摘 要:提出了一种基于虚拟化容器技术的私有云数据库服务平台的设计方案,能够有效解决使用传统单机数据库面对多用户无法共享资源、按需分配、弹性扩展,使用公有云难于个性化定制、运维困难的问题。平台使用Kubernetes管理Docker集群提供数据库实例,结合域名和代理技术隔离用户与集群,实现无感知运维,将Web控制台与服务器资源集成配置,极大的降低管理难度,组合优化监控软件,从集群、硬件、数据库服务三方面保障服务平台可靠运行。 关键词:数据库;私有云;容器;Docker;DBaaS; 0 引言 云计算技术在近年飞速发展,虚拟化使用软件的方式重新定义划分CPU、内存、网络等硬件资源,可以在一台服务器上提供多个服务而彼此间完全隔离,将单个服务器资源分裂成多个虚拟资源,也可以将多个服务器节点的资源聚合成一个虚拟资源,让资源共享成为可能。容器已经成为云计算的核心技术之一,能提供比虚拟机更小的资源分配粒度,不需要分配单独的操作系统,只提供最基础的运行时环境,因此更轻便、灵活,可以快速部署。 本文基于开源的Docker容器技术设计实现了一套私有的云数据库服务平台,将实体服务器重新分裂、聚合变成可以动态配置和扩展的数据库服务资源提供给用户,同时为了保证平台的可用性,在网络接入、集成调度、监控方面按照实际需求进行了优化配置,提供了完整的平台架构方案,确保多用户下服务的按需分配和稳定运行。 1.平台设计 平台分为四个模块,网络接入,集群,控制台,监控,整体结构如图1所示。所有用户的请求都先到达网络接入模块,通过代理转发给相应的集群资源;集群负责提供数据库实例,由Kubernetes调度分配资源创建,为多用户提供彼此隔离,具有最高ROOT权限,并且互相无感知的数据库服务;控制台是一套控制所有软硬件设备的软件系统,通过Kubernetes的REST API接口远程控制集群,提供Web界面为用户及管理员提供交互功能;监控是整个平台性能及健康状况的保证,确保平台能稳定运行。 1.1网络接入 集群使用Calico动态分配网络,并自动配置内部DNS服务,便于调用及发现服务,但仅限于集群内部访问,外部访问需要通过Service资源定义服务的访问入口地址。外部访问提供三种模式,NodePort模式是在集群每个Node节点上为需要外部访问的Service开启一个对应的TCP监听端口,外部系统使用任意Node的IP+具体的端口号接口访问此服务;第二种模式LoadBalancer是利用公有云申请负载均衡器,每个服务都有自己的IP,所有通往指定端口的流量都会被直接转发,没有过滤,没有路由,价格贵且难于控制;第三种Ingress模式是通过HTTP代理服务器将外部的HTTP请求转发到集群内部的后端服务,这种应用层的网络代理明显不能满足平台在传输层的使用,所以选用NodePort模式。 在NodePort模式基础上,进行了三种设置,让系统更安全可靠。一、使用HAProxy作为多节点的负载均衡器,并利用其代理功能,将Node IP+具体的端口号与真实的服务IP+数据库默认端口绑定,服务IP由本地资源分配,提前设置在服务器上;二、设置DNS域名服务器为每个服务设置域名;三、防火墙设置访问规则,限制访问服务的来源地址。通过上述设置用户可以像使用普通数据库一样访问数据库资源,并确保其性能及安全,结构如下图所示,Pod IP,Cluster IP供集群内部使用,Node IP与Port1形成对外服务入口,服务IP与默认端口提供给用户进行连接。 1.2 集群 集群提供数据库实例,使用生产环境、备用环境两个集群。生产环境使用一个Master主控制节点,两个Node节点,集群对内存要求高,所以采用DellR730:CPU 40 core Intel Xeon @2.20GHz 内存128G,本地数据Raid1备份,生产环境一直保持在线状态,备用环境硬件配置低于生产环境,在生产环境异常时提供服务,二者使用NFS方式共享外部存储,存储使用磁盘阵列。当生产环境某一个节点或数据库实例需要下线运维,可以在备用环境中创建相同名称的数据库实例,新的数据库实例位于不同的集群,使用不同的端口,但是共享相同的数据目录,在网络接入中将用户的请求指向新的数据库实例,则用户看到的是数据完全一样的数据库,整个切换过程只需几分钟,可以做到无感知运维。
        Speaker: Ms 歌 欧 (高能所)
        Slides
      • 44
        面向高能所计算中心运维任务的异常检测研究
        各高能物理实验通常会产生海量的数据,为满足其计算和存储需求,高能所计算中心一直开展高性能计算方面的研究,其中集群计算是高性能计算的重要方式之一。目前计算中心的本地集群包括约20000个CPU核,上千台服务器,20PB的磁盘存储和10PB的磁带存储。在江门中微子实验JUNO和高海拔宇宙线观测实验LHAASO建成后,计算中心每年需存储并处理的数据超过10PB。面对数据量的增多,集群规模必将继续扩大。面对现有的集群规模,快速准确的检测异常对于日常运维来说具有重要的意义和挑战。传统的异常检测方式包括:针对不同的服务器指标设定静态阈值;利用关键字搜索检查系统日志等。但是这些方式需要专业人员的经验,且无法适应多种场景,不具有可移植性。另外,这些方式无法适应负载的变化,也无法适应服务器升级等情况。异常相对于正常数据来说是少而不同的,它通常被分为空间异常和时序异常。空间异常指在不考虑时序信息的情况下,在单维或高维特征空间中不同于大部分数据的数据点。时序异常指与利用历史数据预测的可靠分布偏离程度大的点,包括意料之外的峰谷,趋势变化等。基于机器学习的异常检测利用大量的历史数据训练机器学习模型,这种方式可以避免前文提到的传统异常检测的劣势之处。Ganglia监控系统每间隔约五分钟得到一组服务器指标数据,目前基础监控指标有20多种,各类服务领域专用指标接近百种。每年可利用Ganglia监控系统得到上亿条监控数据,这为机器学习提供了大量的训练样本。本文主要介绍通用异常检测框架的设计与实现以及基于该框架对海量存储系统进行的异常检测算法研究。首先,我们为异常检测任务设计并以web实现了一个具有良好人机交互界面的通用异常检测框架,该框架包括了异常检测任务所需要的通用功能模块,如:样本库建立、样本打标、数据可视化、预测性能评估、检测性能评估、算法库、模型调用接口等。此外,异常框架检测框架针对空间异常和时序异常将异常检测方法分为两大类。空间异常检测主要采用基于距离、密度等思想将异常数据与正常数据分离的方式。时序异常检测将整个任务分为时序模型预测和异常检测,时序模型预测组件利用历史数据进行可靠预测,异常检测组件对预测数据和真实数据差异进行评估,利用N-sigma原则设置阈值,检测异常。并且基于该异常检测框架,我们分别利用Isolation Forest和LSTM循环神经网络算法训练模型对计算中心海量存储系统进行空间异常和时序异常的检测,并比较分析基于机器学习的异常检测方式和传统异常检测方法的效果差异。
        Speaker: Ms 娟 陈 (高能所)
    • 15:40
      茶歇
    • 数据处理与物理软件II 丹霞厅

      丹霞厅

      遵义世纪柏源酒店

      Convener: Prof. 中明 储
      • 45
        一种应用于高能物理探测器中脉冲成形任务的可重配置深度卷积神经网络芯片
        随着机器学习技术的发展,深度卷积神经网络在目标检测、图像识别、图像分割等计算机图像任务中具有很高的准确度。深度学习技术已经作为一个工具被用于高能物理领域,例如利用深度学习通过图像特征研究LHC上jets物理特性,在高压疝气时间投影室进行无中微子双β衰变径迹重建中利用深度学习的方法对本底噪声进行抑制等。深度学习也被应用于高能物理探测器中脉冲成形任务,利用其专用结构和优化方法,可以大大提高对长期漂移、短期变化和随机噪声的抑制能力。 在卷积神经网络中,不管是训练过程还是推理过程,卷积运算占据了百分之九十以上的运算。为了获得较好的准确度,不仅需要更多的卷积层,还需要大量的卷积核以及各种各类型的网络结构,不同的网络结构具有不同的卷积核大小、卷积核数量、通道数。卷积核和通道数目的增加将会导致大量的数据搬运,进而产生能量消耗。现有的加速器不能够支持可重构的网络结构,使用GPU也会使成本大大增加。 本文介绍了一种卷积神经网络的数字集成电路的实现,采用结构可重配置的处理单元使神经网络计算的各个过程如卷积、解卷积、全连通运算都能重复利用片上的资源进而节省芯片实现的面积,同时,采用专用的数据缓冲器将通道数据和卷积核数据送入处理单元以减少数据的搬运次数进而提高系统的能耗效率。
        Speaker: 鹏程 艾 (华中师范大学)
        Slides
      • 46
        基于Blinker平台和Wi-Fi技术的无线智能剂量仪设计
        近年来信息化的高度进展,通讯的自由化与高层次化、业务量的急速增加与人类对生活环境的安全性、舒适性、效率性要求的提高,造成家居智能化的需求大为增加,能在手机上随时随地监控家中情况和操控设备的便利性使得智能家居市场非常庞大,智能家居的品种也在不断扩展,有必要了解智能家居的制作开发流程,分析成熟的智能家居解决方案来充实自己的知识储备。 物联网使战略性新兴产业的重要组成部分,对加快转变经济方式具有重要推进作用,我们核类已经积攒了丰厚的技术,加入物联网有利于提高自动化管理水平,减少人为干预,从而极大程度地提升效率,同时降低人工带来的不稳定性。因此,物联网会在核类行业应用中将发挥巨大的潜力。 本文基于物联网技术和核辐射探测,制作一种无线智能剂量仪器。该剂量仪使用GM计数管作为辐射探测器。利用Wi-Fi技术接入互联网,使用Esp8266高性能SoC作为数据处理与传输芯片。使用Blinker平台作为物联网接入解决方案,可通过手机app或者网页实现控制开关、设定阈值、测量数据、定时传至服务器绘制折线图等功能,根据现有仪器进行定标实验,完成对仪器定标。根据验证试验和稳定性实验表明:设计的无线智能剂量仪设计工作稳定.该设计方案在核仪器的物联网应用有重要的参考价值。
        Speaker: Mr 文杰 隋 (南华大学)
        Paper
      • 47
        超级τ-粲工厂实验离线软件系统(Offline Software system of Super Tau-Charm Facility,Oscar)的开发进展
        加速器物理实验是当今人类研究微观世界最有效的途径。自2009年开始运行以来,北京正负电子对撞机BEPCII/北京谱仪BESIII实验获得了令世人瞩目的成功,并计划于2022年左右完成其历史使命。在中国高能物理协会的组织下,我国正在制定后BEPCII/北京谱仪BESII时代的中国加速器例子物理实验装置的发展规划和实施方案。新一代2-7GeV高亮度正负电子加速器(High Intensity Electron Positron Accelerator, HIEPA )设施是选项之一。HIEPA将运行于质心能量√s=2~7GeV,设计亮度在L=(0.5~1.0)×1035cm-2s-1,俗称超级τ-粲工厂(Super Tau Charm Facility ,STCF)。为了顺利开展STCF实验相关模拟工作,提高用户工作效率,降低各类研发成本,项目组计划为STCF探测器模拟和数据分析开发一套离线软件系统(Offline Software system of Super Tau-Charm Facility,Oscar),Oscar基于Sniper软件框架和Geant4 ROOT DD4hep等高能物理软件,使用CMT作为软件配置和编译管理工具。用户在该离线软件系统下,将建立起STCF整个探测器的实体仿真模型、电子学模拟的信号数字化程序包、信号和刻度和重建程序、数据分析算法和软件等模块,为用户做相关工作提供的统一的平台和工具。在Oscar建成后,用户可以高效率地进行入射粒子产生、探测器蒙特卡洛模拟、电子学模拟和信号数字化、电子学输出信号的刻度和事例重建、以及离线数据分析等工作。
        Speaker: Mr 贺 李 (USTC)
      • 48
        卷积神经网络在X射线相干衍射实验实时图像识别中的应用
        上海硬X射线自由电子激光装置(英文缩写SHINE)是国家重大科技基础设施建设“十三五”规划的优先启动项目,拥有超高峰值亮度和平均亮度、高重复频率、飞秒级超快脉冲、优良的时间和空间相干等特性,同时具备纳米级的超高空间分辨能力和飞秒级的超快时间分辨能力。SHINE的建成将使我国拥有最新的高重频X射线自由电子激光光源,为物理、化学、材料、生命科学等学科领域提供高分辨成像、超快过程探索、先进结构解析等尖端手段,为我国基础科学的前沿研究带来前所未有的前景。 SHINE将采用高帧频大阵列多像素探测器系统,兼之具备单脉冲成像能力与高重频的特点,SHINE建成后将产生海量的实验数据。SHINE运行初期数据峰值通量将达到~100 GB/s,需要有~100 PB量级的数据存储能力;远期预计数据峰值通量将达到~5 TB/s,同时数据存储能力需要达到EB级别。如此巨大的数据量将给传统的数据分析方法带来严峻的挑战,而在大数据时代得到蓬勃发展的机器学习将会有独特的优势和潜力。正因为如此,在SHINE数据分析系统的规划之初,机器学习就受到了格外的重视。机器学习算法研究及其在SHINE实验数据处理中的应用将是一个重要的研究课题。 与同步辐射光源的光子累积模式不同的是,自由电子激光具有单脉冲成像能力。在实验中,高能量和高通量的X射线脉冲最终将摧毁样品的分子结构,但是飞秒级别的超快脉冲赋予了SHINE在摧毁前对分子结构进行成像的能力。鉴于自由电子激光中每个脉冲的性质都不一样,实验中需要尽可能地记录每一个脉冲的成像数据。另外,为了尽可能地减小数据通量,降低数据写入端的负担,我们希望能在线对成像进行快速甄别,及时剔除质量不好的成像。国外同类实验的研究结果表明,由于复杂多变的成像结果,以及高通量的图像产生率,传统在线分析方法的效果并不好。而卷积神经网络由于具备强大的学习能力和图像识别能力,在自由电子激光的实时图像识别中日益受到重视。 因此,国际上自由电子激光装置纷纷展开机器学习方面的研究。从发表的论文来看,研究多集中于在线实时反馈和实验参数的自动调节,以及利用卷积神经网络处理成像数据。 本报告将先对SHINE作简单的介绍,接下来介绍机器学习在SHINE数据系统建设中的考虑和规划,然后将重点报告近期的一项工作——卷积神经网络在X射线相干衍射实验实时图像识别中的应用。在X射线相干衍射实验中,样品依次通过X射线光路,X射线脉冲只有一定的几率能击中样品并成像。该项工作的目的即开发一个卷积神经网络,使之能够尽可能准确地在线快速甄别出样品未被击中的成像数据。由于SHINE目前还处于建设阶段,并没有相应的实验数据,本项工作将利用国际上同类自由电子激光装置公开发表的实验数据来对网络进行训练和测试。
        Speaker: Dr 晓峰 张 (上海科技大学)
      • 49
        实时流处理技术在高能物理计算集群监控中的应用
        随着高能物理计算需求不断增加,计算集群资源管理策略变的日益复杂。亟待计算平台从设备管理、资源共享、服务监控、调度策略等多方面信息关联分析,提升高能物理计算集群作业调度的水平。高能物理计算平台实时流处理技术,将高能物理计算集群监控、设备管理、资源分配等信息实时采集、综合处理,基于分析结果对计算节点进行远程控制,实现了设备从上架使用、异常反馈、灵活调度等一系列资源管理的实时联动和自动化调度,保障了资源管理的高效和资源利用率的最优化。
        Speaker: Mr 庆宝 胡 (高能所)
    • 科学计算与数据管理II 遵义厅

      遵义厅

      遵义世纪柏源酒店

      Convener: 海力 肖 (Computer Network Information Center, CAS)
      • 50
        基于HTCondor的集群自动化管理与监控工具的设计与开发
        HTCondor批作业管理开源软件对于高通量作业提供了高性能的作业调度功能,被越来越广泛应用于高能物理离线处理领域。但与大多数批作业管理软件不同,HTCondor并不提供中心化集群管理模式,我们开发了基于HTCondor的自动化管理工具(MAT),用于资源的自动化统一管理与故障实时监视与修复。 在MAT中,中心数据库用于存储计算资源的多种属性。集群中每个计算结点的配置文件被MAT按中心数据库的信息设置修改。所有计算结点都在MAT的监控之中,一旦发现问题,会被实时监测并反馈给中心数据库,进而相关错误将从计算集群中被快速剔除。
        Speaker: Dr 京燕 石 (中科院高能所)
      • 51
        面向科学大数据的深度分析与智能计算平台研究与应用
        科学数据是国家科技创新和发展的基础性和战略性资源,是科研创新最根本、最活跃、影响面最广的科技资源。大数据时代,科技创新越来越依赖科学数据的综合分析,从气象预测到生物基因分析,从牧草选育变化到生态数据监测,科学数据的意义及重要性不言而喻。随着人工智能技术的蓬勃发展,其在各学科领域的大规模交叉应用必将成为促进科研创新,推动社会经济发展,提升国家科技竞争力的重要手段。 近年来,深度学习和机器学习等技术已经在高能物理、生物医药、空间地理等学科的研究工作中得到了广泛的应用,例如高能物理领域利用卷积神经网络、递归神经网络和对抗生成网络等深度学习算法模型应用于粒子鉴别、事例分类、事例重建、异常检测等多个科研场景。但是将这些新技术应用于学科研究也存在很多障碍,其中最大的问题在于机器学习等技术对学科专家来说往往是一个黑盒,使用这些技术和算法需要对算法模型和软件工具具有深入的理解,并且具备一定的编程能力。对于科学家们来说,存在着极高的学习成本和不确定因素。 我们通过分析大数据背景下科学大数据分析的方法和工具,整理大数据环境下科学大数据分析工作的流程和需求,设计并实现了面向科学大数据的深度分析与智能计算平台,让学科专家无需编写程序便可以轻松使用各种数据分析算法,采用数据流模式自由创建组合各种算法流程来完成复杂的科学大数据分析任务。 平台的核心由数据管理、数据计算和数据可视化三个模块组成。 数据管理模块 数据管理模块用来存储和管理科学数据分析的相关数据,由元数据管理、数据引接、数据整合以及数据管理四部分组成。 (1)元数据管理:元数据管理负责平台多源异构数据格式的定义和管理。 (2)数据引接:数据引接负责平台多源异构数据的导入。 (3)数据整合:数据整合负责对引接进来的数据进行清洗、加工、整合等功能。 (4)数据管理:数据管理负责对平台存储的非文本数据进行管理。 数据计算模块 数据管理模块用来存储和管理大数据分析算法和科学数据分析流程,并为用户提供可视化建模环境用于创建自定义的科学数据分析流程,创建完成的流程可提交至平台进行计算并获得每一步的计算结果。 (1)算法管理:算法管理负责对平台的大数据算法进行管理,平台内置了包括自然语言处理、分类回归、推荐、结果评价等多种类型的数十种算法,同时支持用户上传基于Scala、Java、Python等语言编写的算法包来完成个性化的科学数据分析任务。 (2)任务调度:任务调度为用户内置了多种科学数据分析模型,并为用户提供了一个可视化建模环境。在该环境中,每种科学数据分析模型都被表示为一个有向无环图(DAG)[16],算法和数据集都被作为图中的一个节点。要分析的数据由根节点进入,通过每个算法节点进行计算,并将结果发送给其后代节点,最终结果从终节点流出。每个节点的运算状态采用不同颜色表示,白底灰边框表示等待执行,绿色表示执行成功,白底绿边框表示正在执行,红色表示执行失败。用户 可以无需编写任何代码,直接将算法和数据集(节点)采用拖拽方式进行流程构建,最终创建个性化的科学数据分析流程。 数据可视化模块 数据可视化模块用来将平台中存储的数据和科学数据分析计算后的最终结果进行可视化。对于平台中存储的数据,可以通过选择行、列和对比字段,创建各种不同类型的图表,包括折线图、柱状图、雷达图、词云图等十余种可视化图表。 本文从科学大数据分析工作的流程和框架入手,针对科学大数据分析工作的实际需求,设计并实现了面向科学大数据的深度分析与智能计算平台。并且通过实际案例,展示了平台的功能和效果。事实证明,该平台可以很好地满足大数据时代各个学科领域科学大数据分析工作的要求,促进大数据挖掘和知识发现在科学大数据分析领域的应用。
        Speaker: Mr 宁 杨 (中国科学院成都文献情报中心)
        Slides
      • 52
        一种基于容器云的海量天文数据处理方法
        FAST是世界上最大的单口径射电望远镜,随着漂移扫描巡天的开展,每天都会产生数百T的观测数据。对于这些海量数据的处理,我们必须面对多种软件处理环境的构建冲突、软件故障的快速恢复、系统可快速扩展等一系列问题,这对我们后续的科学数据处理与研究提出了挑战。 经过调查与研究,我们提出采用云计算的方法进行处理,采用容器技术对软件进行封装,采用kubernetes技术构建云环境,并为数据处理方式专门构建了多种模型以实现高效的处理。数据处理模型不但可以进行自动化的数据处理、故障恢复等能力,同时还可以根据需求自动匹配计算资源,对计算机资源进行了高效的利用。这种技术方法很好的解决了海量数据处理中的多种问题,并在FAST数据处理当中进行了应用,同时对未来SKA等天文大数据的处理也具有重要的借鉴意义。
        Speaker: 军 韩 (国家天文台)
        Slides
      • 53
        基于SDN的园区网络接入控制管理系统
        网络接入认证服务及接入控制管理是园区网络管理的基础。本文提出了基于SDN思想的园区有线网络接入认证与接入控制管理方案,同时提出了跨园区无线网络接入认证及接入控制管理方案。基于提出的园区有线网络及无线网络接入控制管理方案,开发了一套网络接入认证及接入控制管理系统,并应用高能所园区及高能所东莞分部园区有线网络及无线网络的接入认证及控制管理,取得了良好的效果。
        Speaker: 智慧 孙 (高能所)
      • 54
        CSNS公共服务全链路监控
        CSNS公共服务构建在不同的软件模块集上,这些软件模块由不同的团队开发,使用不同的编程语言实现,并且部署在不同的服务器上。当公共服务系统出现问题时,最初的查找方式只能依靠人工,从出现问题的地方逐一排查,直到找到问题源头。这种方式,在问题定位及分析上相当耗时。2010年Google发布了Gapper一款针对大规模分布式系统监控的工具。紧接着各种监控工具应运而生,如Zipkin,Cat,Pinpoint,Skywalking。然而Zipkin和cat对代码有一定的侵入性;Pinpoint是基于字节码注入技术,可以做到完全的无代码侵入,但开发语言只支持Java和PHP,数据存储方面又仅支持Hbase。本文基于Skywalking,开发满足CSNS公共服务系统的全链路监控工具。设计链路数据流的数据结构Span,根据业务的差异,封装业务客户端的探针。服务端接收这些探针发送的链路信息并存储到Elasticsearch。最终再组装成每一条完整的链路数据进行展示。使用该工具减少了查找故障带来的人力、物力,时间和精力的消耗,提高各类服务的工作效率。
        Speaker: Ms Li 王丽 (高能所)
    • 大会报告V 贵州厅

      贵州厅

      遵义世纪柏源酒店

      Convener: 辰州 崔 (University of Chinese Academy of Sciences)
      • 55
        机器学习在加速器中的应用
        机器学习在加速器中的应用
        Speaker: Prof. Paul Chu
        Slides
      • 56
        高能同步辐射光源(HEPS)信息系统总体规划
        介绍HEPS信息系统总体设计框架
        Speaker: Mr 法制 齐 (高能所)
        Slides
      • 57
        INSPIRE数据库:管理高能物理全球数字资源的元数据
        **摘要:** INSPIRE是高能物理最具影响力的国际学术信息交流平台之一,其前身为创建于上世纪70年代的高能物理文献数据库SPIRES,由SLAC和DESY共同经营。21世纪初Fermilab加入,2007年CERN加入,从而诞生INSPIRE合作组,并于2010年发布具备崭新结构与丰富服务的INSPIRE网络平台。它涵盖了arXiv.org、 NASA-ADS、 PDG、HEPDATA 等重要学术资源,收录了LHC的实验笔记、世界各大一流出版商与其他高能物理领域核心科研数据库的大量数据,集成了最新最全的高能物理科研数据,提供了多种检索途径,具有数据分析功能,跟踪最新引文数据,为科研工作者提供高能物理领域的一站式搜索及个人学术贡献展示。 INSPIRE提供对130多万条记录的访问,包括全文搜索,自动关键词分配,和作者履历及发文显示,引文分析,系统人名甄别,元数据收集,全文检索及特定字段检索等服务。为了保证全球高能物理用户充分利用高质量的元数据,除了系统自动识别,还有具备专业知识和经验的全球编目团队以众包协作的方式,进行二次维护管理。INSPIRE数据库以提供新功能,包括语义分析,元数据管理众包,用户标记等功能和方式为全球高能物理学者提供一站式的集成检索平台。 **关键词:**数字图书馆,高能物理,元数据管理
        Speaker: 亚欧 江 (高能所)
        Slides
    • 10:30
      茶歇
    • 大会报告VI 贵州厅

      贵州厅

      遵义世纪柏源酒店

      • 58
        优秀论文评选
        Speaker: Dr 刚 陈 (IHEP)
      • 59
        中国科技云“开源科学软件创意大赛”介绍
        Speaker: 荣强 曹 (中国科学院计算机网络信息中心)
        Slides
      • 60
        《数据与计算发展前沿》期刊介绍
        Speaker: 洋 汪 (中国科学院计算机网络信息中心)
        Slides
      • 61
        总结
        Speaker: Dr 刚 陈 (IHEP)
    • 5G科研应用圆桌论坛 遵义厅

      遵义厅

      遵义世纪柏源酒店

      Convener: 洋 汪 (中国科学院计算机网络信息中心)
      • 62
        5G网络技术与应用
        Speaker: Prof. 旭 周 (中国科学院计算机网络信息中心)
      • 63
        圆桌会议讨论
        主要讨论议题:面向未来科研的5G网络应用场景(包括但不限于:科学装置高速无线接入、海量科学数据传输、野外数据采集、远程无人科考、科学数据可视化、协同工作、科学智慧园区、科学普及教育)
      • 64
        《5G科研应用白皮书》启动
    • 16:00
      茶歇
    • 专题论坛II
    • 会议总结
    • 闭幕式
    • 返程