인공 신경망(Artificial Neural Network, ANN)은 인간 뇌의 뉴런 구조를 수학적으로 흉내 내어, 여러 개의 간단한 계산 단위를 층(layer)으로 연결해 데이터를 학습하는 모형입니다.wikidocs+1
기본 개념
- 인공 신경망은 입력층, 하나 이상의 은닉층, 출력층으로 구성되며 각 층은 여러 뉴런(노드)들로 이루어집니다.[wikidocs]
- 각 뉴런은 입력값에 가중치를 곱해 더한 뒤, 활성화 함수(예: 시그모이드, ReLU)를 통과시켜 출력값을 만듭니다.[jinseob2kim.github]
역사적 전개
- 1943년 매컬럭–피츠(McCulloch–Pitts) 모델이 뉴런을 단순 논리게이트로 수학화하면서 초기 인공 뉴런 개념이 제안되었습니다.namu+1
- 1957~1958년 로젠블랫(Frank Rosenblatt)의 퍼셉트론이 단층 신경망으로 선형 분류 문제를 풀 수 있음을 보였고, 신경망 연구의 출발점이 되었습니다.news.skhynix+3
- 1969년 민스키와 페이퍼트가 퍼셉트론이 XOR 같은 비선형 문제를 해결할 수 없다는 한계를 지적하면서 신경망 연구가 한동안 침체기에 들어갔습니다.naver+1
다층 퍼셉트론과 역전파
- 1980년대 중반 럼멜하트·힌튼 등이 다층 퍼셉트론(MLP)에 역전파 알고리즘을 도입해, 은닉층이 여러 개인 신경망을 효율적으로 학습할 수 있음을 보였습니다.brunch+2
- 이를 통해 비선형 결정 경계를 학습할 수 있게 되면서, XOR 문제 같은 복잡한 패턴도 신경망으로 해결 가능해졌습니다.naver+1
CNN, 딥러닝으로의 발전
- 1980~90년대 후쿠시마의 네오코그니트론과 르쿤(Yann LeCun)의 LeNet이 합성곱 신경망(CNN)을 손글씨 인식에 적용해 실제 서비스에 성공적으로 사용되었습니다.namu+1
- 2000년대 이후 힌튼의 딥 빌리프 네트워크(DBN), 2010년대 VGGNet·ResNet 등으로 이어지며, 심층 신경망(딥러닝)이 이미지 인식, 음성 인식, 자연어 처리에서 압도적 성능을 내는 시대가 열렸습니다.kakaocloud+2
한 줄 요약
- 인공 신경망 모델은 1940년대 이론적 뉴런 모형에서 출발해, 퍼셉트론–다층 퍼셉트론–CNN과 딥러닝으로 이어지며 오늘날 대부분의 현대 AI를 지탱하는 핵심 구조가 되었습니다.news.skhynix+3