공지사항

공지사항

공지사항

Neuromorphic 인공지능 반도체 ON-LINE 단기강좌 개최 안내

작성자
Secretary
작성일
2020-08-03 16:10
조회
4801

Neuromorphic 인공지능 반도체 ON-LINE 단기강좌

날짜: 2020년 8월 24일(월)~8월 26일(수)

주최: (사)반도체공학회, 지능형반도체포럼

[초대의 글]

 회원님의 건강을 기원 합니다.

 반도체공학회 (ISE)와 지능형반도체포럼 (ISF)에서는 아래와 같이 Neuromorphic 인공지능 반도체 ON-LINE 단기강좌를 개최합니다. AI 반도체 시장은 최근의 분석에 의하면, 2025년에 전세계 매출이 1289억달러 (약 153조원)에 이를 것으로 전망되고 있고, 향후 차량·통신·컴퓨터·가전·헬스케어·산업용 등 으로 활용될 것으로 예측되고 있습니다. 이미 미국의 인텔이나 엔비디아, 구글, 아마존, 중국 알리바바 등 여러 나라에서는 모두 경쟁적으로 AI 반도체 연구 개발이 이루어지고 있습니다. 국내에서는 정부가 나서 차세대 지능형 반도체로 불리는 AI 칩셋 개발을 위해 2029년까지 10년간 1조원을 투자, '뉴로모픽 칩'(Neuromorphic Chip)을 개발할 계획입니다.

 본 ON-LINE 단기강좌는 인공 지능을 구현하기 위한 반도체 회로 설계, 특히 기초에서부터 시작하여 국가에서 향후 중점을 두고 있는 시스템 반도체 설계 부분에 있어서, 우리나라에서 강점을 가지고 있는 메모리를 바탕으로 인공지능 반도체를 구현하기 위한 방법을 포함, 산학연 이 분야 모든 분들에게 실질적인 도움을 드리는 것을 목표로, 국내외 다양한 연구 기관으로부터, 관련 지식을 전달하는 것을 목표로 하고 있습니다. 바이러스 등의 현재 상황을 고려하여 온라인으로 진행하나 강연 이후 질문에 대한 응답도 보내 드려서 모든 분들에게 개인적으로도 도움을 드리도록 기획하였습니다. 많은 참여를 바랍니다.

조직위원장 유재희
조직위원 최중호, 유창식, 차호영, 김경기

지능형반도체포럼 의장 박영준
반도체공학회 회장 정덕균

[행사 개요]

o 행사명 : Neuromorphic 인공지능 반도체 ON-LINE 단기 강좌

o 일  시 : 2020년 8월 24일(월)~8월 26일(수) 동영상 시청 가능

o 장  소 : ON-LINE 단기 강좌

o 주  최 : (사)반도체공학회, 지능형반도체포럼

o 대  상 : 대학원생, 산업체 연구원, 대학생

o 강연자 : 국내외 인공지능 반도체 분야 석학

 

[프로그램]

순서

소요 시간

세부 내용

강연자

1

5분

개회사

정덕균 (반도체공학회 회장)

2

90분

SRAM and RRAM based In-Memory Computing

서재선 (Arizona State University)

3

90분

인공지능 반도체와 센서, 그리고 융합

이종호 (서울대학교)

4

90분

Processing-in-memory: Retrospective and Prospective Issues

유승주 (서울대학교)

5

90분

Graphcore Colossus Intelligence Processing Unit

Chris Tunsley (Graphcore)

6

90분

CMOS Spike Neural Network(SNN) Hardware

유회준 (한국과학기술원)

7

90분

Deep learning을 위한 Approximate DRAM

이혁재 (서울대학교)

8

5분

폐회사

유재희 (반도체공학회 부회장)

* 주최측의 사정으로 프로그램이 일부 변경될 수 있습니다.

 

[강연 요약]

  서재선 교수

(Arizona State

University)

SRAM and RRAM based In-Memory Computing

Artificial intelligence (AI) and deep learning have been successful across many practical applications, but state-of-the-art algorithms require enormous amount of computation, memory, and on-/off-chip communication. To bring expensive algorithms to a low-power processor, a number of digital CMOS ASIC solutions have been previously proposed, but limitations still exist on memory access and footprint.

To improve upon the conventional row-by-row operation of memories, several works recently demonstrated “in-memory computing” designs, which performs analog computation inside memory arrays (e.g. along the bitline) by asserting multiple or all rows simultaneously. This talk will present recent silicon demonstrations of in-memory computing for deep learning systems, based on both SRAM and denser resistive RAM (RRAM) fabrics. New memory bitcell circuits, array peripheral circuits, architectures, and optimizations for accurate deep learning acceleration will be covered. Promising opportunities of in-memory computing (e.g. large energy gains over digital ASIC), as well as particular challenges (e.g. variability) and new device/circuit design considerations will be discussed.


이종호 교수

(서울대학교)

인공지능 반도체와 센서, 그리고 융합

최근 딥러닝 기술의 발전으로 인공지능에 대한 관심이 높아지고 있다. 딥러닝 기술은 성능이 뛰어나지만 엄청난 전력을 필요로 하고 있어 모바일이나 에지 디바이스에 사용하기는 어려움이 있다. 본 강의에서는 기존 폰 노이만 기반의 가속기 이후 세대인 저전력 뉴로모픽 기술에 대한 전반적인 내용을 강의한다.

IoT 시대에 부응하여 센서에 대한 논의를 하며, 주로 가스센서에 대한 논의를 하고 이를 인공지능 반도체와 접목하는 기술에 대해 소개한다.


유승주 교수

(서울대학교)

Processing-in-memory: retrospective and prospective issues

AI 알고리즘의 효율적 구현을 위해 processing-in-memory (PIM)가 다시금 관심을 받고 있다.

본 발표에서는 우선 전통적인 PIM issue들을 다시 확인하고 이를 바탕으로 AI 알고리즘의 구현을 위한 새로운 PIM issue들을 자세히 살펴본다.

Chris Tunsley

(Graphcore)

Graphcore Colossus Intelligence Processing Unit

Graphcore’s Colossus IPU is the first implementation of a radical new multi-processor architecture for machine intelligence. The Intelligence Processing Unit (IPU) architecture responds to dual technical challenges -- the emergence of this fundamentally new class of AI workload, and the end of silicon scaling. IPUs emphasize throughput performance via massive parallelism using bulk synchronous parallel (BSP), while preserving a strong MIMD character. IPUs emphasize energy efficiency through locality of processing and memory, and fine-grained access to data -- anticipating the increasing importance of sparse computation for AI in the age of power-limited computing. IPUs are similar in purpose but very different in structure and potential to GPUs and TPUs. IPUs are designed especially to operate in clusters, from a few chips up to many thousands, and to leverage the bulk memory resources of their hosts. Each IPU chip is itself a multi-processor, and the effect of clustering multiple chips is to create larger multi-processors with a consistent software stack.


유회준 교수

(한국과학기술원)

CMOS Spike Neural Network(SNN) Hardware

뇌의 구조를 모방한 ANN과는 달리 SNN은 뇌의 정보전달 방식을 모방해 신경망을 구현하였다.

SNN은 인간의 뇌처럼 저전력, 고성능으로 동작할 수 있기에 차기 AI processor로 주목받고 있다.

본 강의에서는 뇌의 정보전달 방식 및 SNN hardware에서 spike 생성 방법 같은 기초적인 내용뿐만 아니라, 저전력으로 높은 효율을 낼 수 있는 CMOS 하드웨어 기술과 전망을 소개한다.


이혁재 교수

(서울대학교)

Deep learning을 위한 Approximate DRAM

Deep learning 연산 실행을 위해서는 DRAM에 데이터를 저장하고 접근하기 위하여 많은 전력 소모를 하게 된다. 한편 Deep learning 연산은 약간의 오차가 있더라도 최종 결과에 미치는 영향이 미미한 경우가 많다. 이러한 성질을 이용하여 DRAM의 refresh 동작에 필요한 전력 소모를 줄이는 방법과 DRAM에서 데이터 접근에 필요한 전력 소모를 줄이는 방법을 소개한다.

 

[ON-LINE 단기강좌 안내]

o 홈페이지에서 로그인 후 등록 완료 시 단기강좌 동영상 시청이 가능합니다.

o Q&A는 8/27(목)까지 해당 강연자와 질문을 메일(online@theise.org)로 문의 주시면, 각 강연자가 추후 영상 촬영 또는 서면 답변으로 회신하는 방식으로 진행됩니다.

o 수료증은 단기강좌 종료 후 E-mail로 개별 송부됩니다.

 

[ON-LINE 등록 안내]

o 홈페이지 신청 : https://www.theise.org/online

o 사전 등록 기간 : 2020년 8월 20일(목) 23:59 까지

o 등록비

구분

학생회원

일반회원

비회원

8월 20일(목) 까지

10만원

15만원

20만원

8월 21일(금) 부터

15만원

20만원

25만원

  * 학회 회원 등록 시 본 강좌 등록비가 감액되오니 https://www.theise.org/sub-6/에 회원가입 후 등록 신청 가능합니다.

o 결제 방법 : 신용카드 결제 또는 무통장 입금; 국민은행, 028201-01-094902 (예금주: (사)반도체공학회)

  * 전자계산서 발행 : 온라인 등록(무통장 입금 선택) 후 요청사항 및 사업자등록증을 문의처 메일로 송부

o 문의처 : (사)반도체공학회 사무국 02-553-2210 / online@theise.org