본문 바로가기 주메뉴 바로가기

KREONET

ENG

고에너지물리분야

국가과학기술 정보인프라의 중심, KREONET

High Energy Physics

세계 최대 입자가속기(LHC)를 보유하고 있는 스위스의 CERN을 중심으로 글로벌 협업 연구를 대표하는 고에너지물리(HEP, High Energy Physics)는 지구촌 38개국 3,000여 명이 참여할 만큼 대규모의 공동연구입니다.
고에너지물리의 계층적 데이터전송을 위해 Tier센터간의 연결과 실험데이터의 송수신, 계산자원의 공유는 KREONET과 GLORIAD의 자원과 지원이 필수적인 연구분야입니다.

  • 1,700TB

    전송테이터(년간)

  • 150

    논문발표(SCI)

  • 200

    협력기관

  • 15

    연동기관 수

  • 연구내용

    전하를 띈 힉스보존을 참 쿼크와 바텀 쿼크로 붕괴하는 채널과 새로운 입자인 A 보존과 W 보존으로 붕괴하는 채널에서 탐색
    Z 보존과 비슷하나 질량이 더욱 높 은 새로운 입자를 찾는 연구가 8TeV 데이터와 13TeV 데이터로 연구
    Seesaw 모델이 예측한 무거운 중성미자를 찾는 연구를 새로운 13TeV 데이터를 이용하여 연구
    표준모형이 예측하는 13TeV에서의 Drell-Yan 충돌면적을 측정
    Zγ 보존의 질량 분포에서 새로운 입자를 찾음시키고, 같은 입자이지만 다르게 붕괴하는 채널을 연구

    계산용클러스터 시스템

    활용내용

    13 TeV의 새로운 데이터를 가지고 새로 수행할 예정이며, charm - bottom quarks 붕괴에 덧붙여 전하를 띈 힉스가 pseudo scalar힉스(A)와 W 보존으로 붕괴하는 연구
    질량의 근원탐사라는 주제아래 추진하는 위의 탐사과제들은 물리적으로 모두 다른 사건들이지만 분석방법을 같이 KREONET을 통해 공유하며 탐사를 효율적으로 수행
    8 TeV에서의 연구를 13 TeV 에서도 수행하여 그 결과를 8 TeV 결과와 비교 및 종합할 예정

    지원내용

    서울대학교 CMS연구단은 CERN grid를 이용하여 일차적인 데이터 분석을 한 후 그 결과를 KISTI나 KNU의 T2, T3를 지정하여 저장 그 파일을 서울대 서버로 전송한 후에 이차적인 분석
    KREONET 10G 첨단망과 연결된 내부 시스템은 크게 두 개의 Rock Cluster 서버와 두 개의 non - batch 서버 네트워킹 지원

    10G 엑세스 스위치
  • 연구내용

    강입자 충돌 물리학 연구
    • 네개의 탑쿼크 탐색 연구
    • 탑쿼크에서의 CP 대칭성 깨짐 연구
    경입자 충돌 물리학 연구
    • 가스 검출기 기반 제1준위 삼차원 궤적 트리거 개발
    • CP 대칭성 위반 물리학 연구
    우주배경복사 분극 현상 연구
    • 주파수 기반 신호 읽기 전자회로 펌웨어 개발
    • 우주배경복사 지도 작성 연구
    실험에 사용되는 UT3 보드
    B2GM에서 연구 진행 상황 발표
    CDC 설치 전 테스트용 세팅

    활용내용

    강입자 충돌 물리학 연구
    • CERN 및 국내 기관 소재 실제 및 모의 데이터 전송
    • CERN 실시간 원격 접속
    경입자 충돌 물리학 연구
    • 매주 국제 원격 회의 개최
    • 일본 소재 트리거 시스템 원격 제어 및 데이터 획득
    • 일본 소재 데이터 전송 및 국내에서의 분석
    우주배경복사 분극 현상 연구
    • 매주 국제 원격 회의 개최
    데이터중심
    • 일간

      10GB
    • 월간

      100GB
    • 년간(총량)

      1TB
    • 첨단망 활용연구 효율성 효과

      10~30%
    • 전송량

      1TB
    • 참여연구원

      5명

    지원내용

    강입자 충돌 기반 입자 물리학 연구 확대
    • CERN으로부터 LHC 가속기 활용 데이터 전송
    • 국내 KISTI, 경북대학교, 서울시립대 자원
    • 활용한 데이터 처리 결과의 전송
    경입자 충돌 물리학 연구
    • 매 주 국제 화상회의를 통한 트리거 개발 진행
    우주배경복사 분극 현상 연구
    • 매 주 국제 화상회의를 통한 신호일기 알고리즘개발 진행
    • 원격 데이터 획득을 통한 망원경 운영 이해 진행
    CDC Front-End 케이블 연결
  • 연구내용

    εk에 가장 큰 오차를 주는 요인인 Vcb를 더욱 정확하게 계산하고자 OK action을 사용하여 B→D*lv 붕괴과정에 해당하는 zero recoil의 form factor에 관계된 물리량을 계산
    εk의 오차 원인 중 다른 하나인 BK를 보다 정확히 계산하기 위해 MILC에서 제공하는 643X192 앙상블에서의 계산을 대략 800개의 configuration에 대해 다섯 차례 계산 완료

    활용내용

    Vcb와 BK계산에 필요한 lattice gauge configuration인, HISQ, asqtad gauge configuration을 BNL과 NERSC 스토리지 서버로부터 첨단망을 활용하여 파일 전송
    Vcb와 BK를 계산하고자 받은 gauge configuration 중 일부를 KISTI의 tachyon으로 파일 전송

    데이터중심
    • 일간

      300GB
    • 월간

      9TB
    • 년간(총량)

      100TB
    • 첨단망 활용연구 효율성 효과

      50~100%
    • 전송량

      100TB
    • 참여연구원

      11명

    지원내용

    국제연구와 KISTI의 Tachyon에 사용되는 빅데이터를 KREONET 첨단망을 사용하여 빠른 전송속도로 이용
    KISTI Tachyon 본 연구실에서 작년 KREONET 첨단망을 사용함으로써 기존의 Ethernet보다 3배 이상의 속도향상
    미국의 BNL (Brookhaven national laboratory )과 NERSC (national energy research scientific computing center )의 스토리지 서버에서 총 100TB 정도 용량의 MILC asqtad gauge lattice configuration와 업데이트되었던 MILC HISQ gauge lattice configuration 일부를 파일전송

  • 연구내용

    Top & Standard Model(TSM )
    • 탑쿼크의 물리 속성과 물리상수의 정밀한 측정
    • W보존의 속성과 물리상수의 측정
    • 탑쿼크와 영향을 주는 충돌사건의 정밀한 측정
    • 탑쿼크를 보다 정밀하게 측정하기 위한 새로운 방법 도입 → 새로운 입자의 발견 가능성을 확대
    Heavy Ion Physics(HIP )
    • J/ψ 중간자와 B중간자의 물리 속성과 물리상수의 정밀한 측정 → 입자충돌 사건에서는 보기 힘든 입자들의 특징 분석
    Detector R&D & Upgrade
    • GEM검출기 개발을 위한 기반 SW개발 → GEM검출기 납품을 통한 기여도 확대
    BSM Model
    • 질량이 무거운 중성미자 존재 탐색
    • 입자충돌 전산모사 시스템들 간의 상호 비교를 통한 검증 → 현재까지 고려하지 못했던 물리적인 현상 발견

    활용내용

    KREONET/GLORIAD를 이용한 CMS검출기에서 검출한 데이터의 빠른 전송
    • 스위스에서 검출된 데이터(1일 약 1TB )를 최대한 빨리 한국으로 전송
    • 그리드 컴퓨터를 통하여 생성된 입자 전산모사 데이터를 서울슈퍼컴퓨터 센터 T3센터로 수집
    KREONET/GLORIAD를 이용한 국외 CMS연구진들과 정보를 교류
    • 서울슈퍼컴퓨터센터- KREONET - GLORIAD - Fermi Lab, MIT LNS, CERN과 교류
    • SSH를 통한 24시간 실시간 서울슈퍼컴퓨터자원 활용
    • 시뮬레이션 시각화 프로그램인 Fireworks 원격 조정
    • CERN에 상주하고 있는 한국 CMS연구진과 평일 주중(5일) 화상회의
    • 국내 CMS참여 대학과 유럽 CERN 파견 연구진과 매일 상황보고/회의

    지원내용

    서울 슈퍼컴퓨터센터는 현재 10Gbps를 이용 하여 해외 국제 공동연구인 CMS 검출기 연구를 진행
    그리드 Tier3센터로서 10Gbps 네트워크와 국제 연결: 국내에서의 전송 속도 뿐만 해외와의 네트워크 연결 시에도 10Gbps 정도의 전송속도 확보

    연구내용(Top & SM)
  • 연구내용

    입자물리 실험에서는 가속기에서 양성자를 충돌시키거나 무거운 이온 원자핵들을 충돌시켜서 생성되는 입자들을 거대 검출기로 검출하여 발생하는 대규모 데이터를 분석하고 기존의 이론으로 예측되는 결과와 비교하여 새로운 입자의 성질이나 새로운 상호작용의 성질을 연구
    RNA 분자의 안정성에 공간제한이 미치는 효과에 대하여 전산모사를 통하여 연구함. 특히 공간제한이 RNA의 구조적 특성에 미치는 효과를 연구하며 구체적으로 공간제한을 가하는 벽의 특성에 따른 RNA의 구조와 안정성 효과를 연구

    활용내용

    첨단망을 사용한 대용량 데이터 전송
    첨단망을 사용한 계산결과 또는 중간과정을 모니터하기 위한 가시화

    첨단망을 사용한 대용량 데이터 전송 이미지
    데이터중심
    • 첨단망 활용연구 효율성 효과

      50~100%

    지원내용

    세종대학교 물리천문학과는 유럽 입자물리학 연구소(CERN )에서 운영하는 LHC 가속기에 설치된 여러 개의 검출기 중 ALICE 검출기와 CMS 검출기를 사용하는 국제 공동연구에 참여
    전 세계 관련 연구자들이 사용하는 전산 자원의 공유가 필수적이라서 LCG 고성능 컴퓨팅 그리드로 자원들을 공유
    연구망의 사용은 대규모 데이터 전송 및 컴퓨터 자원 사용

  • 연구내용

    강입자 데이터를 이용하여 dilepton 채널에서의 3개 이상 탑쿼크가 나오는 과정에 대한 분석연구
    탑쿼크 두개와 다수의 강입자 jet 생성에 대한 측정 및 새로운 현상과의 구분을 위한 최적화연구

    실험에 사용되는 UT3 보드
    연구 진행 상황 발표

    활용내용

    강입자 충돌 물리학 연구
    • CERN 및 국내 기관 소재 실제 및 모의 데이터 전송
    • CERN 실시간 원격 접속 통한 회의
    데이터중심
    • 일간

      10GB
    • 월간

      400GB
    • 년간(총량)

      5TB
    • 첨단망 활용연구 효율성 효과

      10~30%
    • 전송량

      20TB
    • 참여연구원

      3명

    지원내용

    KREONET을 이용하여 KISTI Tier 3, 서울시립대 Tier 3, 경북대학교의 Tier 2 또는 Tier 3 사이트, 교내 클러스터로 전송, 그리드 컴퓨팅 자원을 이용하여 처리

    국내 기관과의 연구망 활용

    경북대, 서울시립대, KISTI의 국내 CMS Tier 센터 자원을 활용하여 생산되는 CMS 몬테카를로 데이터 및 실제 데이터를 처리하여 데이터 분석

    • 13 TeV 에너지에서 생산된 몬테카를로 데이터를 포함 2017년에 새로이 생성될 데이터 중 일부 필터링하여 고려대학교 서버에 저장하고 분석/연간 5TB 전송
    유럽 CERN 연구소와의 연구망 활용

    탑쿼크 관련된 실제 데이터 샘플에 대해서는 유럽 CERN에서 일부 직접 전송

    데이터 저장 및 처리용서버
  • 연구내용

    원자로에서 방출되는 중 성미자 를 근거리(290m ) 검출기에서 정밀 측정하고, 원거리(1.4km ) 검출기에서 변환에 의해 줄어든 양을 측정하여 Ө13를 측정
    가돌리늄(Gd ) 금속이 용해된 유기섬광액체를 채운 서로 동일한 중성미자 검출기 2대를 건설하여 중성미자의 양이 거리의 제곱에 반비례하여 기하학적으로 자연히 줄어드는 경향에서 벗어난 정도를 측정

    원자로 중성미자의 변환상수 측정 실험 내용

    활용내용

    RENO 실험 데이터의 영광에서 대덕 KISTI로의 전송
    RENO 실험 데이터의 전국 참여대학 연구진 공유

    데이터중심
    • 일간

      0.5TB
    • 월간

      13.26TB
    • 년간(총량)

      160TB
    • 첨단망 활용연구 효율성 효과

      50~100%
    • 전송량

      160TB
    • 참여연구원

      30명
    참여 연구진 사진

    지원내용

    RENO 실험 데이터의 영광에서 대덕 KISTI로의 전송

    RENO 중성미자 검출기에서 쉼 없이 생성되는 대용량 데이터를 첨단전송망을 사용하여 저장 및 분석 자원을 제공하는 대덕의 KISTI로 실시간 빠른 속도로 전송
    영광 현지에 이미 매설된 45Mbps 전산망을 전용선으로 첨단전산망과 연결하여 효율적으로 데이터를 전송(연간 180TB 데이터 전송하여 저장)

    • 데이터생산량 0.5TB/Day, 전송량 0.8TB/Day
    RENO 실험 데이터의 전국 참여대학 연구진 공유

    RENO 중 성미자 검 출기에서 생 성된 대 용량 데이터의 일부와 실험 진행상황을 파악할 수 있는 자료를 전국에 산재한 참여대학 연구진(서울대/경상대/경북대/동신대/서강정보대/서영대/성균관대/세종대/전남대)이 공유
    전국에 산재한 RENO실험 그룹에서 공유하는 일부 데이터와 실험 수행 자료를 첨단전송망으로 빠르게 접속하여 처리

    • 2017년 데이터저장량 : 700TB,가용한 코어(CPU)수 : 480개
  • 연구내용

    CMS(Compact Muon Solenoid ) 실험
    • 질량의 근원을 밝히는데 중요한 역할을 할 힉스(higgs)입자의 탐색과 초대칭 이론에서 예견하는 입자들을 발견하여 물질의 궁극적인 입자와 그 상호작용 이해
    • CMS 실험의 Tier -2/3 센터로 국내외 연구진에게 연산자원 및 저장공간을 비롯한 컴퓨팅 자원과 고에너지물리 데이터를 제공하여 CMS실험 연구를 위한 데이터 분석환경을 제공
    AMS(The Alpha Magnetic Spectrometer) 실험
    • AMS 검출기에서 수집한 정보를 분석하여 우주의 반물질과 암흑물질을 탐색
    • 국제우주정거장이 작동을 멈출 때까지 10년 이상의 데이터 획득

    활용내용

    CMS(Compact Muon Solenoid) 실험

    CMS 그리드 환경에서는 신속한 데이터의 송수신은 효율적인 연구 수행을 위하여 매우 중요
    대용량 데이터의 원거리 그리드 컴퓨팅 자원 공유를 위해 높은 대역폭의 초고속 네트워크(KREONET망)필요

    AMS(The Alpha Magnetic Spectrometer) 실험

    AMS 연구 수행의 효율성을 위해 AMS 분석 자료의 신속한 확보를 위해 KREONET망 필요

    데이터중심
    • 일간

      12,000GB
    • 월간

      365TB
    • 년간(총량)

      4,380TB
    • 첨단망 활용연구 효율성 효과

      50~100%
    • 참여연구원

      16명

    지원내용

    최대 10Gbps 성능으로 CMS 실험 데이터 및 연구 결과 데이터 약 3,189TB 를 타기관(미국페르미연구소, 미국 Vanderbilt, 미국 Nebraska, 이탈리아 CNAF, 스위스 유럽입자물리 연구소 등)으로부터 수신
    최대 10Gbps 성능으로 CMS 실험 데이터 및 연구 결과 데이터 약 1,190TB를 타기관(미국페르미연구소, 미국 Purdue, 이탈리아 CNAF스위스 유럽입자물리연구소 등)에 제공
    해외에 거주하고 있는 연구원들과 정기적인 화상회의 수행 및 해외 개최 워크숍의 화상 참석

    AMS(alpha magnetic spectrometerO) experiment
    LHC 원형가속기
    CMS 검출기
  • 연구내용

    CERN, LBNL과 BNL등의 주요 가속기 데이터 분석을 통한 공동연구그룹의 일원으로써 연구성과 공헌
    국내 연구진들을 위한 대용량 실험데이터 분석 기반마련 및 실시간원격 회의 환경 조성
    CERN의 그리드컴퓨팅을 활용한 ALICE 등의 주요 국제공동연구그룹 실험데이터 분석
    CERN, LBNL과 BNL등에서 주최되는 공동연구그룹의 국제 화상회의를 위한 네트워크 환경 및 소프트웨어 구축, 활용

    검출기 센서칩 및 모듈 생산

    활용내용

    CERN의 그리드컴퓨팅 자산을 이용하여 실험 데이터분석
    ALICE 및 STAR 중심의 국제화상회의 적극참여 및 분석결과 공유

    데이터중심
    • 일간

      30GB
    • 월간

      600GB
    • 년간(총량)

      3TB
    • 첨단망 활용연구 효율성 효과

      10~30%
    • 전송량

      3TB
    • 참여연구원

      7명

    지원내용

    기가비트 첨단 연구망 구성을 통하여 국외 기관(CERN 등)의 슈퍼컴퓨터 및 그리드 컴퓨팅 시스템에 접속하여 원활한 대용량 데이터 분석 환경을 이용
    첨단 연구망을 이용한 사이버랩을 구성하여 국내 외 여러 기관과의 화상회의를 불편함 없이 진행할 수 있었고, 100회 이상의 국제 화상회의에 참여
    대용량 칩 테스트의 결과 데이터 전송으로 매월 약 600GB의 데이터 전송이 이루어짐. 매일 수십GB의 파일 전송이 이루어지는데, 첨단망을 활용하여 불편함 없이, 끊김 없이 전송

    사이버랩 환경을 통한 연구 결과 발표
    네트워크연결개략도
  • 연구내용

    B 중간자의 특이 붕괴 탐색
    • B 중간자가 4개의 하전 경입자로 붕괴하는 반응
    • B0→붕괴
    • B→붕괴
    • B→붕괴
    Belle II 실험을 위한 DAQ 개발
    사용자 터미널에서 KEKCC로부터 X11 포워딩을 통해 분석연구
    YHEP 클러스터와 KREONET 연결을 위한 L3 라우터 구성

    활용내용

    Belle II 실험 시뮬레이션 데이터 생산에 기여
    • 본 연구실(약칭 YHEP) 은 입자 물리 실험 연구를 수행하기 위해 국내외 다양한 기관과의 협엽을 수행하고 있음. YHEP은 독자적인 컴퓨팅 클러스터를 보유하여 몬테카를로 시뮬레이션 제작 등에 참여할 수 있어 국내 대학 연구기관으로서는 최초로 국제적 거대장비 실험인 Belle II 실험의 컴퓨팅 GRID 사이트로 인정받아 현재 Belle II 시뮬레이션 제작에 참여하고 있음
    • KREONET을 통하는 트래픽의 지배적인 부분은 Belle II 시뮬레이션 제작 과정에서 발생하며 꾸준히 사용량이 증가할 것으로 예상함
    데이터중심
    • 일간

      4GB
    • 월간

      122GB
    • 년간(총량)

      1.5TB
    • 첨단망 활용연구 효율성 효과

      50~100%
    • 참여연구원

      3명

    지원내용

    YHEP은 독자적인 컴퓨팅 클러스터를 보유하여 몬테카를로 시뮬레이션 제작 등에 참여

    • Belle II 시뮬레이션 데이터 생산에 참여하고 있다. KREONET을 통하는 트래픽의 지배적인 부분은 Belle II 시 뮬레이션 제 작 과 정에서 발생/처리

    입자물리 분석연구를 수행하기 위해서 국내외 HPC 컴퓨팅 리소스를 빈번히 활용환경 지원 및 KREONET을 통해 다양한 HPC 리소스를 안정적이고 빠른 접속으로 활용함으로써 연구 생산성 향상 지원

    데이터 분석연구에 쓰이는 YHEP 클러스터
  • 연구내용

    탑 쿼크가 W보존 대신 Z보존 입자나 힉스 보존과 함께 참 쿼크 또는 다른 맛을 가진 업 쿼크로 붕괴하는 과정 역시 이론적으로 예측
    표준 모형이 아닌 다른 많은 표준모형을 넘어서는 모형들에서는 탑 쿼크가 힉스와 참 쿼크로 직접 붕괴할 수 있는 1% 확률로 실험
    충분히 많은 데이터를 수집할 수 있게 되고 기계학습 등의 다양한 분석 기법을 적용함으로써 이러한 1%이하 수준의 차이를 통계적으로 유의한 수준에서 구분하여 새로운 물리 현상인 탑 쿼크에서 맛을 바꾸는 중성류 과정의 신호 연구

    실험데이터 분석/전송시스템

    활용내용

    고용량의 실험 데이터를 전송하여 이를 재해석하는 작업이 빈번하게 이루어지는데, ssh프로토콜을 이용한 유저 수준에서의 파일 복사 뿐만아니라 xrootd 프로토콜을 통해 국내외 연구기관으로부터 실시간으로 실험 데이터를 접근
    각 tier사이트에서 제공받을 수 있는 실험 데이터의 경우 파일의 크기가 수 기가바이트 수준에 다다르며, 네트워크의 특성상 응답 속도 및 전송속도, 패킷 손실도 등 모든 면에서 연구 수행의 효율성 개선 가능

    데이터중심
    • 일간

      50GB
    • 월간

      10GB
    • 년간(총량)

      100GB
    • 첨단망 활용연구 효율성 효과

      10~30%
    • 참여연구원

      3명

    지원내용

    국내외 연구 기관과의 네트워크 연결 속도와 신뢰성 향상 지원
    • 연구용으로 설치한 리눅스 클러스터를 재구성하여 CMS실험 데이터 및 몬테카를로 시뮬레이션이 가능하도록 CERN -VM 파일시스템을 사용할 수 있도록 설정
    • 캐싱 파일 데이터 및 검출기 데이터베이스 정보를 KISTI CMS tier 3 또는 경북대학교 tier 2/3에서 분산 접근하여 첨단연구망이 초고속으로 직접적으로 연결
    예상되는 첨단연구망을 통한 모의실험 및 충돌 실험데이터 전송양은 100TB 정도 될 것으로 예상
    • 대규모 클러스터 수준에서 다룰 수 있도록 10TB 또는 그 이하 수준으로 줄인 뒤 이를 이용해 데이터를 분석
    • CERN에서 받은 데이터를 10TB 수준으로 줄여 CERN에서부터 한양대학교로 전송
    1G 스위치장비
  • 연구내용

    일본 KEK에 위치한 충돌가속기 실험 Belle/Belle II의 기반을 구축하고 새로운 물리 이론을 발견하기 위한 초석을 까는 것이 연구의 목적이다. 이를 위하여

    • Belle II 실험 운용에 필요한 소프트웨어 시스템 구축
    • Belle II 에서 생성될 충돌 데이터 분석 시스템 구축
    Belle II 측정기의 조감도

    활용내용

    Belle II의 국제 그리드 망을 통하여 Belle II 소프트웨어 라이브러리를 기반으로 다량의 시뮬레이션 데이터를 생성하고 유저들의 분석 훈련을 위하여 만들어진 데이터를 KISTI GSDC에 송신
    두 가지 버전의 소프트웨어(basf2 0.8, 0.9)에 해당하는 시뮬레이션 데이터 MC8와 MC9을 제작하였으며 또한 충돌데이터 발생시 시스템 운용과 거의 같은 조건하에서 dress rehearsal도 진행

    데이터중심
    • 년간(총량)

      10TB
    • 첨단망 활용연구 효율성 효과

      100%이상
    • 전송량

      10TB
    • 참여연구원

      3명

    지원내용

    첨단망 활용 확대효과: Belle II 실험의 구성원 중 한국 연구자의 수는 전체의 4%이며 순조로운 실험을 위해여서는 한국 그룹이 제공하는 컴퓨팅 자원의 양도 전체의 4% 이상이어야 함
    대량의 컴퓨팅 자원을 가진 KISTI GSDC에 이어 연세대와 숭실대가 첨단망을 통해 Belle II 그리드에 연결됨
    2017년 프랑스 연구 기관 등이 추가로 Belle II 실험에 가입
    2019년 초 본격적으로 시작되는 Belle II 실험의 충돌 데이터 생성에 대비하여 2017~18년 기간중에는 본격적으로 Belle II 그리드 망을 통한데이터 분석
    2017년에는 그리드망을 통하여 대량의 데이터를 생성, 운반하는 것을 주 목표였으며 성공적으로 시행
    LHCONE, LHCOPN 등 LHC 실험 그리드망과 협력 관계를 확대하여 전세계에 흩어진 과학연구기관의 컴퓨팅 자원을 좀 더 효율적 사용

  • 연구내용

    액시온 암흑물질 발견 및 특성 연구
    • CAST - CAPP 액시온 실험 연구
    뮤온 g -2 측정 및 분석
    • FNAL 뮤온 g -2 실험 데이터 분석
    • J - PARC 뮤온 g - 2/EDM 실험 시뮬레이션

    활용내용

    뮤온 g -2 측정 및 분석
    • FNAL 뮤온 g -2 실험 데이터 전송
    • J - PARC 뮤온 g -2/EDM 실험 시뮬레이션 프레임워크 개발
    데이터중심
    • 일간

      1GB
    • 월간

      20GB
    • 년간(총량)

      100GB
    • 첨단망 활용연구 효율성 효과

      50%이하
    • 전송량

      100GB
    • 참여연구원

      5명

    지원내용

    뮤온 g -2 측정 실험
    • FNAL 실험 및 시뮬레이션 데이터 일부 전송 및 테스트
    • 기존 KAIST 망 사용 대비 50% 정도의 전송 성능 향상
    • 추후 TCP 튜닝 등으로 전송 성능을 극대화 시킬 예정
  • 연구내용

    국제 광대역 네트워크 망에서의 장거리(long- haul) 데이터 전송 효율화
    • RTT의 증가에 따른 병렬 TCP flow 성능 분석 및 최적화
    • 데이터 신뢰성 보장을 위한 병렬 checksum 방법 구현
    파일시스템 및 새로운 저장장치를 고려한 고성능 데이터 전송방법 연구
    • ScienceDMZ에 존재하는 데이터 전송 노드의 경우, 빠른 전송을 위해
    • 파일시스템과 네트워크 시스템의 교차 계층 최적화를 할 필요가 있음
    • 다양한 파일시스템/저장장치 기반 고성능 데이터 전송 연구

    활용내용

    국제 광대역 네트워크 망에서의 장거리(longhaul) 데이터 전송 연구 실험
    • 미국 Argonne 국립연구소의 실험용 DTN(data transfer node)와 홍익대세종캠퍼스의 실험용 DTN을 1Gb 데이터 경로로 연결하여, 장거리 데이터전송 연구 실험을 수행함
    파일시스템 및 새로운 저장장치를 고려한 고성능 데이터 전송 방법
    • 동일한 테스트베드 환경에서 GPFS 병렬 파일시스템 및 SSD 저장장치 등 다양한 저장장치 시스템을 활용한 데이터 전송 방법 실험과 최적화 방법 테스트
    데이터중심
    • 년간(총량)

      10TB
    • 첨단망 활용연구 효율성 효과

      100%이상
    • 전송량

      10TB
    • 참여연구원

      3명

    지원내용

    국제 광대역 네트워크 망에서의 장거리(longhaul)데이터 전송 효율화

    RTT의 증가에 따른 병렬 TCP flow 성능 분석 및 최적화

    • 최근에 실험실내 emulation 기기를 사용하여 통계방법에 기반한 병렬
    파일시스템 및 새로운 저장장치를 고려한 고성능 데이터 전송 방법 연구활용

    ScienceDMZ에 존재하는 데이터 전송 노드의 경우, 빠른 전송을 위해 파일시스템과 네트워크 시스템의 교차 계층 최적화
    미국 Argonne 국립연구소 JLSE내의 실험용 cluster 및 DTN과 홍익대 실험용 cluster간 데이터 전송 실험

    • 단일 DTN간의 전송 실험
    • 다수 DTN간의 전송 실험
    • 고성능 데이터 전송을 위한 스토리지 시스템 최적화를 위한 다양한 스토리지 환경(병렬 파일 시스템인 GPFS, SSD 등)에서 데이터 전송을 시험
  • 연구내용

    • 1MA 이상의 대전류 플라즈마의 안정운전
    • KSTAR 특장점을 활용한 KSTAR의 고유 연구영역 연구
    • 높은 플라즈마 beta에서의 장시간 운전 senario확보
    • 실험 진단 결과의 신뢰성 확보를 위한 진단 장치 개선
    • KSTAR 연계장치의 안정적 운전 및 유지보수
    • 방사선 발생 연구환경에서의 안전실험 환경조성
    • 제어시스템의 안정적 운영 및 원격실험 환경구축
    • 진단 및 실험 데이터 신뢰성 확보
    • 초전도 및 통합제어분야 국제협력을 통한 기술확보 및 해외 연구동향 추적
    • 빔/플라즈마 interaction 계산을 통한 KSTAR 물리요구사항 확정
    • 물리요구사항에 따른 빔 지오메트리 변화 대응, 초점 거리 최적화 이온원 상세 설계
    • 빔 궤적 계산을 통한, 전송효율 및 빔라인 컴포넌트 열유속 최적화
    • 빔에너지 가변을 포함한 NBI/PCS 결합 통합제어시스템 개념 설계
    • NBI -2 빔라인 시스템 제작 및 설치
    • 토카막 플라즈마 난류수송 현상 핵심 주제 연구
    • 다중스케일 상호작용 이해를 위한 통합모델링

    활용내용

    국/내외 협업 연구 기관 및 대학교와의 공동 연구 진행시 필요한 네트워크를 첨단망을 통해 실험/운전 데이터 전송 및 분석에 활용
    2017년 7월 27일 “한미간 초고속 실험데이터 전송 시연” 완료

    Storage for DEMO
    데이터중심
    • 년간(총량)

      10TB
    • 첨단망 활용연구 효율성 효과

      100%이상
    • 전송량

      10TB
    • 참여연구원

      3명

    지원내용

    국내/외 연구 기관간의 전송 속도 향상
    • KSTAR에 KISTI 첨단망의 도입과 동시에 Science DMZ Architecture를 적용하여 보안 시스템을 최소화 하고 Access Control List로 접근제어를 한 결과 연구자들의 보다 빠른 접근이 가능
    • 2017년도에는 KSTAR 실험에서 한 Shot당 가장 큰 실험데이터를 발생하는 ECEI 시스템의 HDF5 파일을 ADIOS, mdtmFTP등의 전송 솔루션을 이용한 한미간(KSTAR- PPPL) 고속전송 시연을 성공적으로 진행
    SAN Switch
    Data Transmission Demo
Back to Top