공지사항

공지사항

공지사항

Neuromorphic 인공지능 반도체 On-line Workshop 개최 안내

작성자
theise theise
작성일
2021-05-25 23:05
조회
7054

초대의 글

안녕하십니까? 회원님의 건강을 기원 합니다.

반도체공학회 (ISE)와 인공지능반도체포럼 (AISF)에서는 아래와 같이 Neuromorphic 인공지능 반도체 ON-LINE 단기강좌를 개최합니다. AI 관련 반도체 시장은 최근 분석에 의하면, 2025년에 전세계 매출이 650억불 (약 75조원)에 이를 것으로 전망되고 있고, 향후 차량·통신·컴퓨터·가전·헬스케어·산업용 등으로 활용될 것으로 예측되고 있습니다. 이미 미국의 인텔이나 엔비디아, 구글, 아마존, 중국 알리바바 등 여러 나라에서는 모두 경쟁적으로 AI 반도체 연구 개발이 이루어지고 있습니다. 국내에서는 정부가 나서 차세대 지능형 반도체로 불리는 AI 칩셋 개발을 위해 2029년까지 10년간 1조원을 투자, '뉴로모픽 칩' (Neuromorphic Chip)을 개발할 계획입니다.

이번 On-Line 단기강좌는 인공 지능을 구현하기 위한 반도체 시스템 설계, 특히 기초에서부터 시작하여, 시스템 반도체 설계 부분에 있어서, 우리나라에서 강점을 가지고 있는 메모리를 바탕으로 인공지능 반도체를 구현하는 PIM 분야를 포함, 이 분야 산학연 모든 분들에게 실질적인 도움을 드리는 것을 목표로, 국내외 다양한 연구 기관으로부터, 관련 지식을 전달하는 것을 목표로 하고 있습니다. 바이러스 등의 현재 상황을 고려하여 온라인으로 진행하나, 강연 이후 질문에 대한 응답도 모아 보내 드려서 모든 분들에게 개인적으로도 도움을 드리도록 기획하였습니다. 많은 참여를 바랍니다.

조직위원장 유재희
조직위원 최중호, 김용석, 유창식, 차호영, 김경기, 한재덕

반도체공학회 회장 범진욱
인공지능반도체포럼 의장 박영준

IEEE CASS 서울챕터 위원장 범진욱
IEEE CASS 대구챕터 위원장 김경기

행사 개요

o 행사명: Neuromorphic 인공지능 반도체 ON-LINE 단기 강좌

o 날  짜: 2021년 6월 10일(목)~13일(일)

o 장  소: ON-LINE

o 주  최: (사)반도체공학회, 인공지능반도체포럼, IEEE CASS 서울&대구 챕터

o 대  상: 산업체 연구원, 대학원생, 대학생

o 강연자: 국내외 인공지능 반도체 분야 석학

 

프로그램

순서

소요 시간

강연 제목

강연자

1

90분

Memory-centered computing architectures in AI era

유승주 (서울대학교)

2

90분

Processing-In-Memory for High Performance AI Hardware

유회준 (KAIST)

3

90분

플래시 메모리 기반 뉴럴 네트워크

이종호 (서울대학교)

4

90분

SRAM-based In-Memory Computing for Energy-Efficient and Robust AI Systems

서재선 (Arizona State University

5

90분

Hardware optimization techniques for A.I. processor

곽재화 (㈜에임퓨처)

6

90분

[영어 강좌] Circuit Design and Silicon Prototypes for Compute-in-Memory for Deep Learning Inference Engine

Shimeng Yu (Georgia Institute of Technology)

* 주최측의 사정으로 프로그램이 일부 변경될 수 있습니다.

 

강연 요약

유승주 (서울대학교)

Memory-centered computing architectures in AI era

AI 모델의 학습과 수행을 위해 컴퓨터구조는 계산 중심에서 메모리 중심으로 변화되어야 한다.

본 강의에서는 최근 대용량 AI 모델의 개발 동향을 살펴보고 러한 대용량 AI 모델 학습에 필요한 아주 큰 메모리 크기 조건을 만족하기 위해 메모리 중심의 새로운 서버 구조를 포함한 여러 가지 시도들을 살펴본다. 또한 AI 모델 수행의 에너지 효율성을 높이기 위해 메모리와 디지털 계산을 통합한 최근의 유망한 연구결과들을 살펴본다.

유회준 (KAIST)

Processing-In-Memory for High Performance AI Hardware

Processing-in-memory(PIM)는 모바일 AI 애플리케이션에서 높은 에너지 효율을 달성하기 위한 구조로 주목받고 있다. PIM 구조는 심층 신경망(DNN)을 포함한 빅데이터 처리에서 발생하는 큰 메모리 접근 파워 소모량을 크게 줄일 수 있다. 본 강의에서는 모바일 AI 프로세서에서 사용되는 다양한 PIM 구조들을 소개한다. 구체적으로, 모바일 AR 애플리케이션에서 사용되는 깊이 맵 생성에서 스테레오 매칭을 위한 PIM 방식과 3-D 손동작 인식에서 사용되는 최근접 이웃 탐색을 위한 PIM 방식을 소개한다. 또한, DNN 가속기에서 여러 개의 메모리 셀을 동시에 동작 시켜 메모리 파워 소모량을 줄이는 PIM 구조들과 DNN 가속에 필수적인 희소성을 활용한 연산 생략을 가능하게 하는 PIM 구조들을 소개한다. 마지막으로 앞으로의 PIM 발전 방향에 대해 소개한다.

이종호 (서울대학교)

플래시 메모리 기반 뉴럴 네트워크

딥러닝 기반의 인공지능 기술이 발전함에 따라 이들 기술은 많은 관심을 끌고 있다. 대학에서는 소프트웨어 전공하시는 분들이 주로 연구해 왔지만 최근 공대, 자연대, 의대는 물론이고 인문 사회대 등으로 확산되고 있다. 한편, 딥러닝 기반의 인공지능 기술은 산업 전분야에서 큰 영향을 주고 있고 점차 응용이 늘어나고 있다. 이들 기술은 빅데이터와 더불어 CMOS 기반의 프로세서(가속기 포함)의 계산 능력에 크게 의존하고 있다. 기존 포 노이만 기반의 최첨단 가속기에 크게 의존하는데 이들 가속기의 전력소모는 무시할 수 없는 상황에 이르고 있다고 보여진다. 이에 훨씬 저전력으로 인공지능 연산을 할 수 있는 PIM (Processing In Memory) 또는 CIM (Computing In Memory)등에 대한 관심이 집중되고 있다. CIM을 구현할 수 있는 여러 메모리 기술이 있다. 이 강의에서는 기존 가속기에 의존하는 인공지능의 문제점이 무엇인지 간단히 살펴보고, 여러 메모리 기술 중에서 플래시 메모리를 이용한 CIM 기술에 대해 논의한다. 시냅스의 특성, 그리고 시냅스 어레이 구조에 따른 특징, 메모리에 기반한 추론이나 학습 알고리즘 등을 분석하고 소개한다.

서재선 (ASU)

SRAM-based In-Memory Computing for Energy-Efficient and Robust AI Systems

SRAM-based in-memory computing (IMC) is a promising technique to improve energy-efficiency of AI hardware. In this talk, we will present circuit-level, system-level, and algorithm-level techniques for designing IMC-based AI systems with high energy-efficiency (compared to digital ASIC), high accuracy (similar to software baseline), and enhanced robustness (against adversarial attacks).

 

 

곽재화 (㈜에임퓨처)

Hardware optimization techniques for A.I. processor

효율적인 인공지능 연산을 위해서는 좋은 알고리즘 최적화 못지 않게 이를 실제로 처리하는 하드웨어의 최적화도 중요하다. 하지만, 알고리즘 최적화가 늘 하드웨어에서 성능 향상을 가져오지는 않는다. 본 강의에서는 일반적으로 사용되는 인공지능 알고리즘 최적화가 하드웨어에서 어떤 영향을 미치는지 알아보고, 연산 효율을 높이기 위한 하드웨어 최적화는 어떻게 진행되어야 하는지 알아본다.

Shimeng Yu (GIT)

Circuit Design and Silicon Prototypes for Compute-in-Memory for Deep Learning Inference Engine

Compute-in-memory (CIM) is a new computing paradigm that addresses the memory-wall problem in the deep learning hardware accelerator. SRAM and resistive random access memory (RRAM) are identified as two promising embedded memories to store the weights of the deep neural network (DNN) models. In this lecture, first we will review the recent progresses of SRAM and RRAM-CIM macros that are integrated with peripheral analog-to-digital converter (ADC). The bit cell variants (e.g. 6T SRAM, 8T SRAM, 1T1R, 2T2R) and array architectures that allow parallel weighted sum are discussed. State-of-the-art silicon prototypes are surveyed with normalized metrics such as energy efficiency (TOPS/W) and compute efficiency (TOPS/mm2). Second, we will discuss the array-level characterizations of non-ideal device characteristics of RRAM, e.g. the variability and reliability of multilevel states, which may negatively affect the inference accuracy. Third, we will discuss the general challenges in CIM chip design with regards to the imperfect device properties, ADC overhead, and chip to chip variations. Finally, we will discuss future research directions including monolithic 3D integration of memory tier on top of the peripheral logic tier to fully unleash the potentials of the CIM with RRAM technologies.

 

ON-LINE 단기강좌 안내

o 단기강좌 홈페이지 로그인 후 등록 완료 시 단기강좌 동영상 시청 및 강연자료 다운로드가 가능합니다.

o Q&A는 6/9(수)까지 해당 강연자와 질문을 메일(online@theise.org)로 문의 주시면, 각 강연자가 추후 영상 촬영 또는 서면 답변으로 회신하는 방식으로 진행됩니다.

o 수료증 및 영수증은 단기강좌 종료 후 등록자 E-mail로 개별 송부됩니다.

 

ON-LINE 등록 안내

o 홈페이지 신청 : https://www.theise.org/online

o 사전 등록 기간 : 2021년 6월 7일(월) 23:59 까지

o 등록비

구분

학생회원

일반회원

비회원

6월 7일(월) 까지

10만원

15만원

20만원

6월 8일(화) 부터

15만원

20만원

25만원

* 학회 회원 등록 시 본 강좌 등록비가 감액되오니 https://www.theise.org/sub-6/에 회원가입 후 등록 신청 가능합니다.

o 결제 방법 : 신용카드 결제 또는 무통장 입금; 국민은행, 028201-01-094902 (예금주: (사)반도체공학회)

* 전자계산서 발행 : 온라인 등록(무통장 입금 선택) 후 요청사항 및 사업자등록증을 문의처 메일로 송부

o 문의처 : (사)반도체공학회 사무국 02-553-2210 / online@theise.org