julio@fEELING

시작하며 : 인공지능 - 헤매는 중에 본문

인공지능

시작하며 : 인공지능 - 헤매는 중에

julio22 2024. 3. 28. 13:39

인공지능

- 인간을 기반으로 모방해서 기계가 인간이 지닌 지능을 가지고 지구문제(지구에 존재하는 문제)를 해결할 수 있다는 분야

- 여기서 간과하지 말아야 할 것이 인간이 영어를 잘하기 위해서는 타고나지 않았다면 저같은 반쪽능력을 가지고 있지만, 컴퓨터는 배우는데는 어떻게 걸리는지 모르지만 BERT/GPT 알고리즘을 통한 학습이 이루어진뒤로는 엄청난 시간절약을 통한 해결이 인공지능에서 나왔습니다. 

- 인간이 가지지 못한 시간을 획기적으로 줄이면서 문제해결을 하게 될 경우의 미지를 제 스스로 이해해 보고 싶어서 시작하는데, 우선은 카테고리를 만들고 여기에 책과 여러가지를 다 넣어 정리좀 해보고 예제라도 돌려보고 정리해보려고 합니다.

 

페드로 도밍고스의 책이 시작점인데, 성이 도밍고스이고, 이름이 페드로 인 이 교수님의 유튜브 영상을 시작하면서 무식하게 구입한 책과 유데미 강좌를 통해 어느 정도 선까지 정리해보고 싶습니다.

 

머신러닝은 데이터와 결과를 컴퓨터에 넣으면 알고리즘이 나오고 그 알고리즘에 데이터를 넣으면 해당 결과를 얻어내는 것을 말하는 것으로, 데이터의 크기가 엄청나게 컸을때 챗GPT 처럼 인간 언어를 이해(?)하는 답변이 나오는, 왜 나오는지는 모르지만, 인간과 같습니다. 500년 전에 시냅스를 몰랐어도 우리는 말하고 운동하고 한 것 처럼 말이죠!

 

머신러닝 분야 중에 딥러닝은 연결주의자, 인간의 신경망을 모방(?)해 알고리즘을 적용해보니 해결이 된다는, 처음엔 수천 시간이 걸렸었던 일도, 반복은 기계가 잘하죠! 몇 초 만에도 해결하게 되는, 그런 놀라운 변화의 한가운데 있습니니다. 2024년 3월 28일 말이죠!

 

 

 

출처 : https://www.youtube.com/watch?v=ErnWZxJovaM

 

00:00:10 Introduction to MIT course on deep learning
00:00:41 Evolution of AI and deep learning
00:02:56 Realism and virality of AI-generated content
00:04:15 Accessibility and cost-effectiveness of deep learning
00:04:19 Advancements in deep learning applications
00:05:11 Empowering deep learning models to create software
00:06:02 Teaching foundations of deep learning
00:07:30 Importance of understanding intelligence and AI
00:14:00 Transition from hand-engineered features to deep learning
00:16:00 Significance of data, compute power, and software in deep learning
00:17:24 Fundamentals of a neural network: the perceptron
00:19:59 Mathematical representation of a perceptron
00:20:51 Activation function and its role in neural networks
00:20:57 Importance of activation functions in neural networks
00:21:11 Sigmoid function: squashes inputs into probabilities
00:23:01 Need for nonlinearity in neural networks
00:23:32 Linear functions insufficient for handling nonlinear data
00:24:22 Nonlinearities enhance neural network expressiveness
00:26:01 Visualizing neural network's decision-making process
00:27:33 Sigmoid function divides space for classification
00:28:16 Understanding feature space in neural networks
00:29:21 Building neural networks step by step
00:31:41 Perceptron's fundamental equation: dot product, bias, nonlinearity
00:32:49 Defining layers and passing information in neural networks
00:37:19 Cascading layers to create deep neural networks
00:38:18 Applying neural networks to real-world problems
00:40:38 Neural network training process explained
00:40:50 Neural networks learn like babies, need data
00:41:12 Teaching neural network to make correct decisions
00:41:32 Importance of minimizing loss for accurate models
00:41:55 Training neural network with data from multiple students
00:42:21 Finding network that minimizes empirical loss
00:42:40 Using softmax function for binary classification
00:43:27 Loss function for real-valued outputs
00:47:56 Gradient descent for optimizing neural network weights
00:59:51 Introduction to gradient descent algorithms
01:00:11 Stochastic gradient descent (SGD) explained
01:00:45 Importance of mini-batch gradient descent
01:01:37 Faster convergence with mini-batches
01:02:03 Parallelization benefits of mini-batches
01:02:30 Understanding overfitting in machine learning
01:04:41 Regularization techniques: Dropout and early stopping
01:06:56 Monitoring training and testing accuracy
01:08:48 Summary of key points in neural network fundamentals

By "YouSum Live"

00:00:10 MIT 딥러닝 강좌 소개
00:00:41 AI와 딥러닝의 진화
00:02:56 AI 생성 콘텐츠의 현실성과 바이럴성
00:04:15 딥러닝의 접근성 및 비용 효율성
00:04:19 딥러닝 애플리케이션의 발전
00:05:11 딥러닝 모델이 소프트웨어를 개발할 수 있도록 지원
00:06:02 딥러닝의 기초 교육
00:07:30 지능과 인공지능에 대한 이해의 중요성
00:14:00 수작업으로 설계된 기능에서 딥러닝으로의 전환
00:16:00 딥러닝에서 데이터, 컴퓨팅 성능 및 소프트웨어의 중요성
00:17:24 신경망의 기초: 퍼셉트론
00:19:59 퍼셉트론의 수학적 표현
00:20:51 활성화 함수와 신경망에서의 역할
00:20:57 신경망에서 활성화 함수의 중요성
00:21:11 시그모이드 함수: 입력을 확률로 압축합니다
00:23:01 신경망에서 비선형성의 필요성
00:23:32 비선형 데이터를 처리하기에 선형 함수가 부족합니다
00:24:22 비선형성으로 신경망 표현력 향상
00:26:01 신경망의 의사 결정 과정 시각화
00:27:33 시그모이드 함수는 분류를 위해 공간을 나눕니다
00:28:16 신경망의 특징 공간 이해하기
00:29:21 단계별 신경망 구축
00:31:41 퍼셉트론의 기본 방정식: 내적, 편향, 비선형성
00:32:49 신경망에서 레이어 정의 및 정보 전달
00:37:19 심층 신경망을 생성하기 위한 계단식 레이어
00:38:18 실제 문제에 신경망 적용하기
00:40:38 신경망 훈련 과정 설명
00:40:50 신경망은 아기처럼 배우고, 데이터가 필요합니다
00:41:12 올바른 결정을 내리는 신경망 교육하기
00:41:32 정확한 모델을 위한 손실 최소화의 중요성
00:41:55 여러 학생의 데이터로 신경망 훈련하기
00:42:21 경험적 손실을 최소화하는 네트워크 찾기
00:42:40 이진 분류에 소프트맥스 함수 사용
00:43:27 실수 값 출력에 대한 손실 함수
00:47:56 신경망 가중치 최적화를 위한 경사 하강법
00:59:51 경사 하강 알고리즘 소개
01:00:11 확률적 경사 하강법(SGD) 설명
01:00:45 미니 배치 경사 하강의 중요성
01:01:37 미니 배치와의 더 빠른 융합
01:02:03 미니 배치의 병렬화 이점
01:02:30 머신러닝에서의 과적합 이해
01:04:41 정규화 기법: 중도 탈락 및 조기 중단
01:06:56 교육 및 테스트 정확도 모니터링
01:08:48 신경망 기초의 핵심 사항 요약