딥러닝 모델이 생성한 데이터가 게임 그 자체이거나, 또는 게임의 재미와 불가분의 관계를 가지는 무언가인 경우.
일반적인 딥러닝 모델이 현실적인 데이터를 생성하는 것이었다면, 게임에 융합된 딥러닝 모델은 재미와 몰입을 발생시키는 데이터를 생성해야 한다.
이를 위해서는 '재미와 몰입'을 컴퓨터가 이해할 수 있는 '데이터'로 변형할 수 있어야 한다.
다시 말해 단순히 '새로운 것' 이 아닌, '재미'를 학습/생성하는 딥러닝 모델이 필요하다.
Rectified Linear Unit (ReLU)은 딥 러닝에서 사용되는 activation function 중 하나입니다.
ReLU는 입력값이 0보다 작으면 0을 반환하고, 0보다 크면 입력값 그대로를 반환합니다. 이 함수는 비선형 함수이므로 딥 러닝에서 사용됩니다.
ReLU의 수식은 다음과 같습니다.
f(x) = max(0, x)
Plain Text
복사
ReLU는 다른 activation function에 비해 계산이 간단하며, vanishing gradient problem을 해결할 수 있는 장점이 있습니다.
하지만 입력값이 0보다 작을 경우, gradient가 0이 되기 때문에 해당 노드가 학습에 더 이상 영향을 주지 않게 됩니다. 이를 dying ReLU problem이라고 합니다.
따라서, Leaky ReLU, PReLU 등의 ReLU의 변형 함수가 제안되어 사용됩니다.
•
2020.04
•
2023.06
FOONDA: AI PUZZLE
Deep Learning으로 생성된 퍼즐을 풀자!
ORCHESTRA
Deep Learning 음성 인식을 통한 부대 컨트롤!
<2030년 8월>
ReLU Games | 대표자: 김민정
사업자등록번호: 000-00-00000
(00000) 경기도 성남시 분당구 00로 000
2023 ReLU Games, Inc. All Rights Reserved.