AI 라 함은 기계가 사람모방mimic  이란 정의를 봤는데, 이 말이 가장 간명한 정의이고, 왜곡 歪曲 안 될 정의라 생각한다. 그러다, 갑자기 연결되는 것이 AI 먹이는 전기이고, 밤에 잠잘 필요가 없고, 패턴을 찾아 시간을 더욱 줄일 것이다. AI를 모르는 사람들이 생각하는 엄청난 시간절약(명확히 상상할 수 있는 비유 : 100년 걸릴 일을 1시간 안에 하는) 을 하고 있다. 이것이 AI분야 중 하나인ML(machine learning). 엄청나다는 것은 상상할 수 없다로, 마법처럼 보이게 될 것임, 고도의 과학은 마법처럼 보인다!

 

뇌과학 공부한 박문호씨의 이야기이에서 인간의 메커니즘을 발견해 그것으로 ai 적용한 것인지, ai 적용하다 보니 인간 메커니즘을 알게 된 것인지... 닭과 달걀과의 관계가 아닐까 생각했다. 각설하고 그렇게 NN(Nueral Network)을 이용하는게 딥러닝! 이겠고, 강화학습RL(Reinforcement Learning)의 경우는 오히려 강화학습을 통해 뇌의 이해가 깊어졌는가? 하는 ... 왜냐면 AI 는 전기를 먹이로 돌아가고, 뇌 신경망은 사람의 식사로 ... 여기까지만 적기로!

 

 

간명하게 다시 적어보면, 좋은 알고리즘으로 일할 준비가 되어있는 ai 시스템이 전기만 있으면 잠도 안자고, 반복함으로 더 똑똑해지는 RL  까지 가능하게 된 사회에... 정말 "잘" 정제된, 충분한 크기의 , 데이터가 있다면... 

 

시스템에서는 인간이 예상하지 못한, 풀지 못한다고 생각해, 생각조차 안했던 많은 문제가 해결될 수도!!

 

 

 

 

 

 

 

그런데, 거기에 chatGPT로 시작된 개인의 일에서도 20달러만 내면 빨리 퇴근하게 만들어주니! ... 내 사정이야, 일 안하고 놀다보니 chatGPT 유료를 이용하지 않았는데,

 

음.. .영어 훈련을 지속적으로 해야지!! 1월 전에 이런 결심을 다시 한다는게 다행이다 싶다. 역시나 AI 시대에 ... ㅋㅋ

 

 

 

 

 

다시 제목으로 가서 ... 이런 생각을 하게 된 것이 추론 때문이다.

 

 

쿠팡이 존재하는데, 슥닷컴으로 노력하는 것이 이해가 되는데, 지마켓 인수한 것도 이해가 되는데, 물론 멸공이란 말에 전부 탈퇴했지만! 신세계나, 이마트의 방향을 어떻게 할지 나름의 판단이 설 것 같은데, 그렇게 방향을 바꾸지 못하는게  조단위로 말아 먹고 있는... 선두도 아니고, 아마존, 월마트를 비롯한 참고하고 비교해서 적용할 예제가 그렇게 많은데 해결하지 못하고 있는...  소비자인 나에게도 그리 좋지 못한 방향으로 흘러가고 있는...

 

내부자가 아니라 외부자로서 보아 쉽게 보이는 것 같기도!

 

 

수익을 내는 기업이 되려면, 아마존이 한 것 처럼 다른 서비스로 이마트 예전의 수익을 만들려면 몇가지 아이디어가 있었는데, 그런 목표도 세우지 못하고... 아흐 답답하다. 유통이 뿌리가 된 기업이 커갈 수 있을게 정말 많은데... 쿠팡과 싸워 이길려고 하지 않았으면 하는게 월마트를 보고 따라가도 될텐데.. .아흐. 여기까지! 

 

 

 

다시 돌아 영어로 직접 정보 습득을 하면 한글로 본 것 보다 더 깊은 통찰을 얻을 수 있는가?! 언제나 중국(규모로 찍어누르는 깡패)만 생각하면서 지고 들어가면 안될텐데... 하튼.

 

 

 

 

우선 AI, 수학, 코딩, 영어 이런쪽으로 관심갖고, 훈련해보기로... 거기에 건강과, 달리기 정도!

 

 

역시나 제목으로 모든게 설명됨

통찰을 갖기 위해선 제목만 기억해 둬도 됨.

 

 

 

'인공지능' 카테고리의 다른 글

시작하며 : 인공지능 - 헤매는 중에  (0) 2024.03.28

 

AI 만들기 :강화학습과 인공신경망 완전정복 

2021년 11월 30일 구입해놓고 한번도 안봤는데,

이제 보려고 합니다.

 

'인공지능 > 강좌' 카테고리의 다른 글

Machine Learning 실전 개발 : 예제 8 프로젝트  (0) 2024.03.28

인공지능

- 인간을 기반으로 모방해서 기계가 인간이 지닌 지능을 가지고 지구문제(지구에 존재하는 문제)를 해결할 수 있다는 분야

- 여기서 간과하지 말아야 할 것이 인간이 영어를 잘하기 위해서는 타고나지 않았다면 저같은 반쪽능력을 가지고 있지만, 컴퓨터는 배우는데는 어떻게 걸리는지 모르지만 BERT/GPT 알고리즘을 통한 학습이 이루어진뒤로는 엄청난 시간절약을 통한 해결이 인공지능에서 나왔습니다. 

- 인간이 가지지 못한 시간을 획기적으로 줄이면서 문제해결을 하게 될 경우의 미지를 제 스스로 이해해 보고 싶어서 시작하는데, 우선은 카테고리를 만들고 여기에 책과 여러가지를 다 넣어 정리좀 해보고 예제라도 돌려보고 정리해보려고 합니다.

 

페드로 도밍고스의 책이 시작점인데, 성이 도밍고스이고, 이름이 페드로 인 이 교수님의 유튜브 영상을 시작하면서 무식하게 구입한 책과 유데미 강좌를 통해 어느 정도 선까지 정리해보고 싶습니다.

 

머신러닝은 데이터와 결과를 컴퓨터에 넣으면 알고리즘이 나오고 그 알고리즘에 데이터를 넣으면 해당 결과를 얻어내는 것을 말하는 것으로, 데이터의 크기가 엄청나게 컸을때 챗GPT 처럼 인간 언어를 이해(?)하는 답변이 나오는, 왜 나오는지는 모르지만, 인간과 같습니다. 500년 전에 시냅스를 몰랐어도 우리는 말하고 운동하고 한 것 처럼 말이죠!

 

머신러닝 분야 중에 딥러닝은 연결주의자, 인간의 신경망을 모방(?)해 알고리즘을 적용해보니 해결이 된다는, 처음엔 수천 시간이 걸렸었던 일도, 반복은 기계가 잘하죠! 몇 초 만에도 해결하게 되는, 그런 놀라운 변화의 한가운데 있습니니다. 2024년 3월 28일 말이죠!

 

 

 

출처 : https://www.youtube.com/watch?v=ErnWZxJovaM

 

00:00:10 Introduction to MIT course on deep learning
00:00:41 Evolution of AI and deep learning
00:02:56 Realism and virality of AI-generated content
00:04:15 Accessibility and cost-effectiveness of deep learning
00:04:19 Advancements in deep learning applications
00:05:11 Empowering deep learning models to create software
00:06:02 Teaching foundations of deep learning
00:07:30 Importance of understanding intelligence and AI
00:14:00 Transition from hand-engineered features to deep learning
00:16:00 Significance of data, compute power, and software in deep learning
00:17:24 Fundamentals of a neural network: the perceptron
00:19:59 Mathematical representation of a perceptron
00:20:51 Activation function and its role in neural networks
00:20:57 Importance of activation functions in neural networks
00:21:11 Sigmoid function: squashes inputs into probabilities
00:23:01 Need for nonlinearity in neural networks
00:23:32 Linear functions insufficient for handling nonlinear data
00:24:22 Nonlinearities enhance neural network expressiveness
00:26:01 Visualizing neural network's decision-making process
00:27:33 Sigmoid function divides space for classification
00:28:16 Understanding feature space in neural networks
00:29:21 Building neural networks step by step
00:31:41 Perceptron's fundamental equation: dot product, bias, nonlinearity
00:32:49 Defining layers and passing information in neural networks
00:37:19 Cascading layers to create deep neural networks
00:38:18 Applying neural networks to real-world problems
00:40:38 Neural network training process explained
00:40:50 Neural networks learn like babies, need data
00:41:12 Teaching neural network to make correct decisions
00:41:32 Importance of minimizing loss for accurate models
00:41:55 Training neural network with data from multiple students
00:42:21 Finding network that minimizes empirical loss
00:42:40 Using softmax function for binary classification
00:43:27 Loss function for real-valued outputs
00:47:56 Gradient descent for optimizing neural network weights
00:59:51 Introduction to gradient descent algorithms
01:00:11 Stochastic gradient descent (SGD) explained
01:00:45 Importance of mini-batch gradient descent
01:01:37 Faster convergence with mini-batches
01:02:03 Parallelization benefits of mini-batches
01:02:30 Understanding overfitting in machine learning
01:04:41 Regularization techniques: Dropout and early stopping
01:06:56 Monitoring training and testing accuracy
01:08:48 Summary of key points in neural network fundamentals

By "YouSum Live"

00:00:10 MIT 딥러닝 강좌 소개
00:00:41 AI와 딥러닝의 진화
00:02:56 AI 생성 콘텐츠의 현실성과 바이럴성
00:04:15 딥러닝의 접근성 및 비용 효율성
00:04:19 딥러닝 애플리케이션의 발전
00:05:11 딥러닝 모델이 소프트웨어를 개발할 수 있도록 지원
00:06:02 딥러닝의 기초 교육
00:07:30 지능과 인공지능에 대한 이해의 중요성
00:14:00 수작업으로 설계된 기능에서 딥러닝으로의 전환
00:16:00 딥러닝에서 데이터, 컴퓨팅 성능 및 소프트웨어의 중요성
00:17:24 신경망의 기초: 퍼셉트론
00:19:59 퍼셉트론의 수학적 표현
00:20:51 활성화 함수와 신경망에서의 역할
00:20:57 신경망에서 활성화 함수의 중요성
00:21:11 시그모이드 함수: 입력을 확률로 압축합니다
00:23:01 신경망에서 비선형성의 필요성
00:23:32 비선형 데이터를 처리하기에 선형 함수가 부족합니다
00:24:22 비선형성으로 신경망 표현력 향상
00:26:01 신경망의 의사 결정 과정 시각화
00:27:33 시그모이드 함수는 분류를 위해 공간을 나눕니다
00:28:16 신경망의 특징 공간 이해하기
00:29:21 단계별 신경망 구축
00:31:41 퍼셉트론의 기본 방정식: 내적, 편향, 비선형성
00:32:49 신경망에서 레이어 정의 및 정보 전달
00:37:19 심층 신경망을 생성하기 위한 계단식 레이어
00:38:18 실제 문제에 신경망 적용하기
00:40:38 신경망 훈련 과정 설명
00:40:50 신경망은 아기처럼 배우고, 데이터가 필요합니다
00:41:12 올바른 결정을 내리는 신경망 교육하기
00:41:32 정확한 모델을 위한 손실 최소화의 중요성
00:41:55 여러 학생의 데이터로 신경망 훈련하기
00:42:21 경험적 손실을 최소화하는 네트워크 찾기
00:42:40 이진 분류에 소프트맥스 함수 사용
00:43:27 실수 값 출력에 대한 손실 함수
00:47:56 신경망 가중치 최적화를 위한 경사 하강법
00:59:51 경사 하강 알고리즘 소개
01:00:11 확률적 경사 하강법(SGD) 설명
01:00:45 미니 배치 경사 하강의 중요성
01:01:37 미니 배치와의 더 빠른 융합
01:02:03 미니 배치의 병렬화 이점
01:02:30 머신러닝에서의 과적합 이해
01:04:41 정규화 기법: 중도 탈락 및 조기 중단
01:06:56 교육 및 테스트 정확도 모니터링
01:08:48 신경망 기초의 핵심 사항 요약

'인공지능' 카테고리의 다른 글

AI 먹이 = 전기  (1) 2025.01.13

 

유데미 강좌를 구입만 해두고 ^^;

그러다 머신러닝 책도 많이 쌓여 있고, 해서 정리용(?)으로 이 강좌를 수강하면서 제대로 정리할 욕심(?)으로 

시작하기로 했음.

 

그렇게 다시 하나 구입해서 강좌 보고 있음.

 

8개 실용 프로젝트를 해보면서 도구에 적응해보고 싶음.

 

 

 

'인공지능 > 강좌' 카테고리의 다른 글

AI 만들기: 강화학습과 인공신경망 완전 정보  (0) 2024.03.28

페드로 도밍고스

마스터 알고리즘 (2024/03/??)

페드로 도밍고스 지음/강형욱 옮김/최승진 감수 | 비즈니스북스 | 1판 1쇄 2016년 7월30일, 4쇄 2017년 2월25일

 

알라딘에서 2017년 7월14일에 구매했던! 그런데 아직 끝을 보지 못한 책입니다. 제프리 힌턴의 필기체 인식이 성공하고 나서 이루진 발전과 알파고 이세돌 대국은, 컴퓨터 분야를 인공지능으로 쏠림 현상(?)을 일으키게 한 것이 아닐까요! 그런데 원서는 2015년 산이고, 변역이 2017년이라 게 된 것이라, 알파고가 2016년 3월에 있었던 대국임을 연결해보니, 2판이 나왔나 찾아봤는데, 없었습니다. @amazon  

 

마스터 알고리즘 - 이론상으로 어느 영역의 데이터에서도 지식을 발견해 내는 범용 학습 알고리즘 geneeal purpose learner이다.-p17 들어가는 말

 

https://www.youtube.com/watch?v=8Ppqep-KAYI

7년전 영상도 있었군요! Pedro Domingos

AI는 이 책에서 시작하셔도 될 것 같습니다. 맞다 틀리다 관점에서는 제가 할 수 있는 지식은 미천하지만, 이 책으로 시작하고 영어가 되면 정말 좋은 유튜브 영상이 많다는 것을 알아서 추천합니다.

 

제가 정리한 시작은 이 책의 내용보다는 인공지능/머신러닝/딥러닝/거대언어모델 같은 관심으로 읽기 시작하다 정리해본겁니다.

 

인공지능은 사람과 유사한 지능 가진 기계-- 늙지 않고 갈수록 더 좋은 지능을 가지게 되는 -- 를 만드는 것을 말하는데, 거기에 사용하는 알고리즘의 카테고리가 다섯개 정도 되는데 그것에 관한 정리된 이야깁니다. 카테고리가 꼭 5개일까 하는 질문에서 헤맸는데, 도밍고스 페드로씨의 이야길 통해 수학이나 컴공이 아니어도 인공지능에 대한 통찰을 얻을 수 있을 겁니다. 그렇게 발전된 과학이 마법과 같아지는 시기에 다다른 현재에 한번 읽어보길 추천해 봅니다. 저는 그 소감을 듣고 싶을 뿐입니다. 

 

머신러닝은 사람이 일일이 프로그래밍 하지 않고 기계를 이용해 패턴까지도 발견하게 끔 만들기 위해서 기계학습이 가능하게 하는데, 거기 종류중에 지도, 비지도, 등등과 강화학습같은 머신러닝 알고리즘으로 인공지능이 발전하고 있고, 인간 신경망을 모방해 만든 한 분야가 딥러닝입니다.

 

결국은 이 단어를 적군요! 챗GPT! 챗GPT가 사용한 알고리즘에 대해서는 이 책엔 없습니다. 왜냐면 서비스가 나오기 전에 나온 책이기 때문입니다.

 

운좋게 저는 2023년 3월인가? 챗GPT 바로 유료 결제해 이용한 경험은 이 책에서 말하는 것 이상의 그 무엇이 존재하고 있음을 알아 버렸습니다.이론 학습보다도 간명하게 표현하면, 퇴근시간을 앞당겼기에... 아니지 끝내 놓고도 한참 시간을 소모한 (?) 그런 포지셔닝이긴 했지만, 프젝에서 계획한 파트보다 능력에 부치지만, 많은 부분을 미치지 않고, 시간 안에 해결했다는.. 버그 처리는 못해서 아쉽긴 하지만요!

다행히(?) 완벽하진 않지만, 유튜브 cc 번역이 지원되어서 몇가지 url 연결해봅니다. 위에 있는 Microsoft Research 에서 나온 영상은 안되네요! vrew를 통해, 자막을 만들어 그것을 번역하는 방법으로 영어 훈련과 함께 할 작정으로...

 

 

 

 

 

1장, 2장에서 설명되는 내용의 구체화가 https://www.youtube.com/watch?v=8FHBh_OmdsM 여기에 있더군요. AI 역사쯤으로 보면 되는데, 새논의 정보화 이론과 퍼셉트론이란 신경망의 흐름이 뚝딱 만들어진게 아님을 무수한 전선의 연결로 보여주는데, 제대로 방향은 이해했는데, 마스터 알고리즘을 정리한 내용정도 밖에 안되는 안타까움과 마이크로소프트 리서치에서 일했던 크리스 비숍에 대해 알았고, 그렇게 주식장에 보니 3개월 만에 93%의 상승을 이룬 엔비디아가 $942.xx 주가를 보면서 좀더 제대로 학습해보려고 합니다.

 

+ Recent posts