먼저 내 트위터를 구독하세요. 기술적인 내용을 트윗합니다.
이 시리즈 의 스피드런 한 번 더, 시작하자
방금 당신에게 강화 학습(RL) 밈을 사용했습니다.
진짜 미끼였어.. 어머나..
그렇다면 왜 meme-Kelvin은 RL이 무엇인지 배우기 어려울까요? 그는 Concept를 이해하는 대신 RL의 구현을 배우고 싶어하기 때문입니다. 그것이 meme-KELVIN입니다!
새로운 것, 도구, 기술 또는 무엇이든 배울 때는 그것을 구현하는 것부터 시작하는 게 아니라, 그 도구로 해결할 수 있는 아이디어, 개념, 문제부터 시작해야 합니다!
워 켈빈, 이거 봐: 강화 학습(RL)을 이해하려면 올바른 움직임을 하면 점수를 얻는 비디오 게임을 하는 것을 생각해 봐.
강화 학습은 프로그램이 결정을 내리고 자신의 행동에 따라 보상이나 처벌을 받음으로써 학습하는 방식입니다.
그것은 단지 START-WITH-IDEAS 원칙을 강화 학습에 적용한 예일 뿐입니다. 하지만 저는 52초 안에 전체 ML을 배우는 방법을 알려드리겠다고 약속했습니다...
52초만에 ML을 배우려면 구현이 아닌 ML 개념을 배우고 , PyTorch나 원하는 라이브러리 이름으로 구현을 구글(또는 GPT)에서 검색해야 합니다. 어쨌든 내년에 바뀔 것이고 괜찮습니다. 아이디어는 훨씬 더 오랫동안 동일하게 유지될 것입니다 . 아이디어를 추구하세요!
지도 학습에서 프로그램은 답이 있는 예(라벨이 있는 데이터라고 함)를 사용하여 학습됩니다. 이를 통해 프로그램은 예와 답 사이의 연결을 학습하여 이전에 본 적이 없는 새로운 예에 대한 답을 추측할 수 있습니다.
알고리즘 및 해결해야 할 문제: 주택 가격 예측(선형 회귀), 고객이 제품을 구매할지 여부 결정(의사결정 트리)
여기서 프로그램은 답이 없는 예(레이블이 지정되지 않은 데이터)를 살펴보고 그 안에서 패턴이나 그룹을 찾으려고 합니다. 이는 유사한 항목을 그룹화하거나 데이터를 설명하는 데 필요한 정보의 양을 줄이는 것과 같은 작업에 도움이 될 수 있습니다.
알고리즘 및 해결해야 할 문제: 유사한 음악 취향을 가진 사람들을 그룹화(k-means 클러스터링), 너무 많은 정보를 잃지 않고 이미지 압축(주성분 분석)
강화 학습에서 프로그램은 여러 가지를 시도하고 보상이나 페널티의 형태로 피드백을 받아 결정을 내리는 법을 배웁니다. 목표는 시간이 지남에 따라 더 나은 결정을 내리고 문제를 더 효과적으로 해결하는 것입니다.
알고리즘 및 해결해야 할 문제: 로봇에게 걷기를 가르치기(Q-러닝), 체스를 두는 프로그램을 훈련하기(정책 그래디언트 방법)
이는 원시 데이터에서 중요한 정보(특징)를 선택하여 프로그램이 더 잘 학습하도록 돕는 프로세스입니다. 때로는 전문 지식과 창의성을 사용하여 새로운 특징을 만드는 것도 포함됩니다.
예: 잎의 길이와 너비를 사용하여 식물 종 식별
머신 러닝 모델이 얼마나 잘 작동하는지 확인하는 것은 잘 작동하는지 확인하는 데 중요합니다. 정확도, 정밀도, 재현율, F1-점수, 평균 제곱 오차와 같은 측정은 종종 모델의 성능을 확인하는 데 사용됩니다.
⏲️ 24초 남았습니다. 잘하셨어요!
딥러닝도 다루어 보자!
이건 정말 추상적입니다. NN을 열로 정렬되어 있고 서로 다른 힘(연결을 통해)으로 왼쪽에서 오른쪽으로 ping을 보내는 뇌-뉴런으로 상상할 수 있습니다. 뉴런(각 계층)이 ping을 받는 힘은 다음 ping을 정의하고 최종 결과 자체도 정의합니다.
알고리즘 및 해결해야 할 문제: 이미지에서 객체 인식(피드포워드 신경망), 언어 번역(방사형 기저 함수 네트워크)
실수를 하면, 그것으로부터 배우고 그것을 반복하지 않으려고 노력합니다. 역전파는 프로그램이 같은 일을 하는 방법입니다.
이를 통해 프로그램에서 문제가 발생한 부분을 파악하고 올바른 답을 찾는 데 더 나은 성과를 거둘 수 있습니다.
CNN은 그림과 같은 격자 모양의 데이터를 이해할 수 있는 특수한 신경망입니다.
그들은 패턴을 배우고 선과 모양 등 그림의 일부를 인식하는 데 도움이 되는 층을 가지고 있습니다.
알고리즘 및 해결해야 할 문제: 사진에서 얼굴 감지(LeNet-5), 이미지에서 다양한 동물 유형 식별(AlexNet, VGG)
RNN은 일련의 숫자나 단어와 같이 순서대로 들어오는 데이터를 처리하도록 설계되었습니다.
그들은 이전의 입력 내용을 기억하고 그 정보를 활용하여 더 나은 결정을 내릴 수 있습니다.
알고리즘 및 해결해야 할 문제: 주가 예측(Long Short-Term Memory, LSTM), 주어진 스타일을 기반으로 텍스트 생성(Gated Recurrent Units, GRU)
이는 이미 많은 것을 학습한 프로그램 모델이 제한된 데이터로 새로운 작업을 수행하도록 미세 조정되는 경우입니다.
이는 프로그램이 이전 학습을 통해 유용한 내용을 이미 알고 있기 때문에 더 빨리 학습하고 더 나은 성능을 발휘하는 데 도움이 됩니다.
예: 다양한 개 품종(ResNet 등)을 학습한 모델을 사용하여 특정 유형의 고양이를 인식합니다.
이러한 기술은 프로그램이 데이터에서 너무 많은 것을 학습하는 것을 방지하는 데 도움이 되며, 이는 과적합과 같은 문제를 일으킬 수 있습니다.
완료: 0분 52초
기본적으로 이게 전부입니다. 이제 에이전트에게 켈빈 구글링으로 알고리즘과 해결하고 싶은 문제에 대한 구현 방법을 훈련시키세요!
도구를 사용하기 시작하려면 도구가 해결하는 문제부터 시작하여 문제를 해결하는 데 어떤 개념(들)이 사용되는지 알아봅니다. "도구로 무언가를 하는 방법"과 같이 구현을 머릿속에 두지 마세요. 복잡하고 어차피 모든 것이 머릿속에 맞지 않을 겁니다.
아이디어를 배우고, 구글에서 구현해보세요.
구현 내용을 구글링 5~10번 하면 기억하게 되고, 그러다 보면 그 기술이 쓸모없게 되어 잊어버리게 됩니다. 괜찮습니다. 이런 일은 늘 일어납니다.
아이디어는 잊기 어렵고 오랫동안 기억에 남습니다.
안녕히 계세요. 다음 드래그 레이스에서 뵙겠습니다.
잠깐만요!
교육 시스템이 실무 중심적이고 유익하기를 원한다면 트위터 새를 따라가는 것을 생각해보세요 <3
어쨌든 당신이 텍스트를 좋아하고 더 많은 것을 원 하거나 소셜 네트워크에서 재미를 즐기는 중독자라면 트위터를 팔로우할 수 있습니다.
아니면 아무도 따르지 말고, 누구의 말도 듣지 마! 너만의 길을 만들어!
사실 저는 여러분이 제 트윗을 팔로우하기를 원했어요. 그냥 판매였거든요.
"43초 안에 REACT 배우기"를 확인하세요