paint-brush
특이점 표면 긁기: LLM의 과거, 현재, 신비한 미래~에 의해@ivanilin
1,736 판독값
1,736 판독값

특이점 표면 긁기: LLM의 과거, 현재, 신비한 미래

~에 의해 Ivan Ilin14m2023/05/16
Read on Terminal Reader
Read this story w/o Javascript

너무 오래; 읽다

이것은 LLM(일명 AI)에 특히 중점을 두고 기계 학습 기술의 현재 상태에 대한 주말 반성을 담은 에세이입니다. 이것은 포괄적인 업계 보고서도 아니고 그럴 의도도 없었지만, 기계 학습 엔지니어와 현재 AI의 대두에 관심이 있는 더 넓은 청중 모두에게 흥미로운 독서가 되기를 바랍니다. 이야기는 세 부분으로 구성됩니다.

People Mentioned

Mention Thumbnail
featured image - 특이점 표면 긁기: LLM의 과거, 현재, 신비한 미래
Ivan Ilin HackerNoon profile picture

이것은 AI라고도 불리는 LLM과 역사의 현재 지점에 특히 초점을 맞춰 기계 학습 기술의 현재 상태에 대한 주말 반성을 담은 에세이입니다.


이 흥미진진한 특이점에 뛰어들기 전에, 이 글은 좀 더 개인적이고 덜 형식적인 글이며, 자연어 이해 진화에 대한 나의 관점을 공유하고 그 맥락에서 중요해 보이는 몇 가지 아이디어를 강조하는 에세이라는 점을 언급하고 싶습니다. . 이것은 포괄적인 업계 보고서도 아니고 그럴 의도도 없었지만, 기계 학습 엔지니어와 현재 AI의 대두에 관심이 있는 더 넓은 청중 모두에게 흥미로운 독서가 되기를 바랍니다.


이야기는 세 부분으로 구성됩니다.


  • 역사 부분은 어떻게 우리가 단 12년 만에 다층 퍼셉트론에서 현재 AGI 상태에 도달했는지를 간략하게 상기시켜 줍니다.


  • 현재 섹션에서는 LLM 의 최신 성과와 현재 업계 동향에 중점을 둡니다. 맥락이 깊고 새로운 아이디어를 찾고 있다면 해당 부분으로 건너뛰세요.


  • 미스터리 부분은 현재 AGI 단계를 따를 수 있는 것에 대한 몇 가지 아이디어를 제시합니다.


역사

따라서 우선 기계 학습은 Tomas Mikolov의 word2vec 출판물 에서 계산하는지 아니면 Coursera에 대한 Andrew Ng의 기계 학습 과정에서 계산하는지에 따라 대략 10년 또는 10년 동안 사용되어 왔습니다. Kaggle은 2010년에 출시되었고 Fei-Fei Li는 2009년에 Imagenet을 모았습니다. 얼마 전까지만 해도 30세 이상이라면 아마 동의하실 겁니다.


어떤 사람들은 머신러닝이 훨씬 더 오래전부터 존재해 왔다고 주장하겠지만, 저는 이제 순수한 연구에 관한 것이 아니라 기술 모멘텀이라고도 불리는 딥 러닝 알고리즘의 업계 채택에 대해 말하고 있습니다. 여기서는 scikitlearn에서 다루는 고전적인 ML 알고리즘, 모든 회귀, 클러스터링, 시계열 예측과 같은 내용은 다루지 않습니다. 그들은 조용히 중요한 일을 하고 있지만 사람들은 그들을 AI라고 부르지 않으며 주변에서 과대광고도 하지 않습니다.


AI의 봄은 왜 12년 전에 일어났는가? 딥 러닝(오류 역전파를 통한 다층 신경망 훈련)이 마침내 일반 GPU에서 가능해졌습니다. 2010년에는 가장 단순한 신경망 아키텍처인 다층 퍼셉트론이 필기 숫자 인식(유명한 MNIST 데이터세트)에서 다른 알고리즘을 능가했으며, 이는 Juergen Schmidhuber 외 연구진이 달성한 결과입니다 .


2010년경 이후로 기술은 점점 더 강력해졌습니다. 몇 가지 판도를 바꾸는 순간이 있었습니다. 자연어 처리(NLP)의 세계에 의미론적 이해를 가져온 word2vec 모델 출시, 조금 후에 Tensorflow 및 Keras 딥 러닝 프레임워크의 공개 출시, 그리고 물론 2017년의 Transformer는 여전히 SOTA 신경망 아키텍처로 NLP의 세계를 넘어 확장되었습니다. 왜 그런 겁니까? Transformer에는 주의력이 있고 전체 입력 시퀀스를 볼 수 있는 행렬 곱셈 접근 방식을 통해 가능해진 O(n2) 복잡도의 텍스트와 같은 시퀀스를 처리할 수 있기 때문입니다. 내 생각에 Transformer가 성공한 두 번째 이유는 모델을 공동으로 또는 별도로(시퀀스-시퀀스 또는 시퀀스-벡터) 훈련하고 사용할 수 있는 유연한 인코더-디코더 아키텍처 때문입니다.


OpenAI GPT 제품군 모델(Transformer Decoder)은 GPT-3이 이미 상당히 인간과 유사한 텍스트를 생성할 수 있고 퓨샷 및 일부 제로샷 학습이 가능했기 때문에 기술 산업을 넘어서 약간의 소음을 냈습니다. 마지막 부분이 더 중요합니다. GPT-3 논문의 제목은 "Language Models are Few-Shot Learners"입니다. 예를 통해 빠르게 학습할 수 있는 대규모 언어 모델의 이러한 기능은 2020년 OpenAI에서 처음 언급되었습니다.


하지만 쾅!


ChatGPT 의 출시는 이전에 볼 수 없었던 과대광고로 다가왔고 마침내 대중의 큰 관심을 끌었습니다. 그리고 이제 GPT-4 는 그 이상을 향해 나아가고 있습니다.


왜 그런 겁니까? 지난 7년 동안 신경망이 괜찮은 결과를 보이기 시작한 이래로 우리가 AI라고 부르는 것은 실제로 좁은 인공 지능 이었습니다. 우리 모델은 특정 작업 세트를 해결하도록 훈련되었습니다. 즉, 객체를 인식하고 분류를 수행하거나 다음 토큰을 예측했습니다. 순서대로. 그리고 사람들은 인간 수준에서 여러 작업을 완료할 수 있는 인공 일반 지능인 AGI를 꿈꿔왔습니다.


현재

LLM의 추론 능력은 게임 체인저입니다.

실제로 명령 기반 LLM 튜닝, 즉 OpenAI에서 말하는 인간 피드백을 통한 강화 학습에서는 어떤 일이 일어났습니까?
GPT-3.5+ 모델은 마침내 제공된 정보를 추론하는 능력을 학습했습니다 . 그리고 그것은 상황을 변화시킵니다. 이전에는 LLM이 상당히 우수한 통계 앵무새에 가까웠지만 텍스트 임베딩, 벡터 검색, 챗봇 등과 같은 많은 응용 프로그램에 여전히 매우 유용했습니다. 그러나 지침 기반 교육을 통해 인간으로부터 추론을 효과적으로 배웁니다. .


추론이란 정확히 무엇입니까?


일부 논리적 작업을 통해 결론을 도출하기 위해 제공된 정보를 사용하는 능력입니다. A가 B에 연결되고 B가 C에 연결되어 있다고 가정하면 A는 C에 연결됩니까? GPT-4는 공식 제품 페이지에서 훨씬 더 복잡한 추론 예제를 제공합니다. 모델의 추론 능력은 매우 강력하고 유연하여 제공된 정보뿐만 아니라 "상식" 또는 "상식"을 사용하여 주어진 목표를 달성하기 위해 따라야 할 구조화된 지침 또는 논리적 작업의 순서를 생성할 수 있습니다. 프롬프트에서.


이러한 추론 능력을 갖춘 LLM 이전에 추론을 위해 잘 설계된 다른 도구는 지식 그래프였으며 , 노드에는 엔터티와 에지가 술어 또는 엔터티 관계로 포함되어 있습니다. 이는 명시적인 추론 능력을 제공하는 정보 저장소의 한 형태입니다. 어떤 시점에서 나는 질문된 정보를 찾기 위해 지식 그래프를 사용하는 질문 답변 시스템을 구축하는 데 참여했습니다. 단지 의도를 감지하고, 그래프에 이러한 종류의 관계가 있는지 확인하고, 언급된 특정 엔터티를 확인하고 존재하는 경우 이 하위 그래프에 문의하세요. 실제로 이 파이프라인은 자연어로 된 쿼리를 SPARQL 쿼리로 변환하는 기능을 제공했습니다.


이제 이 사실 정보를 프롬프트의 컨텍스트 부분으로 일반 텍스트로 모델에 제공할 수 있으며 제로샷에서 이를 "학습"하고 이에 대해 추론할 수 있습니다. 와, 그렇죠?


그리고 그래프에 포함된 엔터티 수와 관계 유형에 제한이 없습니다. 게다가 당신은 우리 세계의 개념과 그 관계에 대한 일반적인 이해인 "상식"을 갖고 있습니다. 이는 기계 학습 모델을 인간의 인지와 분리하는 데 가장 까다로운 부분이었습니다. 우리는 어떻게 자연어로 지시를 내릴 수 있게 되었는지조차 눈치 채지 못했고 너무 명확한 설명 없이도 올바르게 작동하기 시작했습니다.


추론과 지식은 지능의 두 가지 중요한 구성 요소입니다. 지난 20년 동안 우리는 Wikipedia, 과학 출판물, 서비스 설명, 블로그, 수십억 줄의 코드와 Stackoverflow 답변, 소셜 미디어의 수십억 의견 등의 형태로 대략 모든 인간 지식을 인터넷에 올려 놓았습니다.
이제 우리는 그 지식을 바탕으로 추론할 수 있습니다.



GPT-4는 AGI입니다

이러한 추론 능력은 GPT4에 대한 공식 OpenAI 기술 보고서 에 잘 설명되어 있습니다.


GPT-4는 대부분의 전문 및 학술 시험에서 인간 수준의 성능을 보여줍니다. 특히, 시험 응시자 중 상위 10%의 점수로 통일 변호사 시험의 시뮬레이션 버전을 통과했습니다.


여러 가지 인간 테스트에 대한 GPT-4 결과에 따르면 우리는 AGI 근처 어딘가에 있습니다. OpenAI는 웹 페이지에서도 이러한 단어를 사용하며 최근 Microsoft 150페이지 이상의 논문 에서는 다양한 분야에서 GPT-4 기능에 대한 심층적인 연구를 수행했습니다. "일반 인공 지능의 불꽃: GPT-4를 사용한 초기 실험"이라는 도메인은 AGI가 여기에 있다고 조심스럽지만 명시적으로 주장합니다.


GPT-4의 기능의 폭과 깊이를 고려할 때, 우리는 이것이 인공 일반 지능(AGI) 시스템의 초기(아직 불완전한) 버전으로 합리적으로 볼 수 있다고 믿습니다.


그리고 나중에:


광범위한 영역에 걸친 수많은 능력과 GPT-4의 일반성, 그리고 인간 수준 또는 그 이상의 광범위한 작업에 대한 성능의 조합을 통해 우리는 GPT-4가 중요한 단계라고 편안하게 말할 수 있습니다. AGI를 향해


그 주장의 이유는 다음과 같습니다.

순전히 언어 모델임에도 불구하고 이 GPT-4의 초기 버전은 추상화, 이해력, 비전, 코딩, 수학, 의학, 법, 인간 동기 및 감정에 대한 이해, 그리고 더.


그리고 그것을 못 박으려면 :

그러나 첫 번째 단계로서 GPT-4는 기계 지능에 대해 널리 알려진 상당수의 가정에 도전하고 현재로서는 그 출처와 메커니즘을 정확하게 식별하기 어려운 새로운 행동과 기능을 보여줍니다 <…>. 이 문서를 작성하는 우리의 주요 목표는 기술 도약이 달성되었다는 평가를 뒷받침하기 위해 GPT-4의 기능과 한계에 대한 탐구를 공유하는 것입니다. 우리는 GPT-4의 지능이 컴퓨터 과학 분야와 그 이상 분야의 진정한 패러다임 전환을 의미한다고 믿습니다.



이러한 시끄러운 주장 뒤에는 해당 모델이 어떻게 작동하는지에 대한 매우 흥미로운 분석이 있고 다양한 도메인의 다양하고 사소하지 않은 작업에 대한 GPT-4와 ChatGPT 결과의 광범위한 비교가 있으므로 이 연구에 시간을 할애할 것을 적극 권장합니다.


LLM과 검색

훈련 중에 모델에서 학습할 것으로 예상되지 않는 일부 특정 정보에 대해 결론을 내리기 위해 LLM의 추론 능력을 적용해야 하는 경우 데이터를 벡터 임베딩으로 저장하는지에 관계없이 모든 종류의 검색(검색 및 순위 지정 메커니즘)을 사용할 수 있습니다. Faiss 와 같은 일부 ANN 인덱스 또는 Elastic과 같은 구식 전체 텍스트 인덱스에서 이러한 검색 결과를 LLM에 컨텍스트로 제공하여 프롬프트에 삽입합니다. 이것이 바로 Bing 2.0과 Bard (현재 PaLM2 기반) 검색이 수행하는 작업입니다.


ChatGPT가 리더 모델을 대체하는 DPR 아키텍처와 전체 텍스트 Elastic 검색을 사용하여 이 검색 + LLM 호출 시스템을 구현했습니다. 두 경우 모두 시스템의 전체 품질은 보유하고 있는 데이터의 품질에 따라 달라집니다. 색인 — 구체적이고 완전한 경우 기본 ChatGPT가 제공하는 것보다 더 나은 답변을 기대할 수 있습니다.


일부는 GPT를 중심으로 스위스 칼 라이브러리를 만들고 이를 벡터 데이터베이스라고 부르며 이에 대해 좋은 결과를 얻었습니다 . 정말 대단합니다!
그러나 GPT 모델의 텍스트 인터페이스 덕분에 익숙한 도구를 사용하여 주변에 무엇이든 구축할 수 있으며 어댑터가 필요하지 않습니다.


모델 분석

추가 모델 발전에 대한 단서를 제공할 수 있는 질문 중 하나는 이러한 대형 모델이 실제로 어떻게 학습하는지, 그리고 인상적인 추론 능력이 모델 가중치에 저장되는 위치입니다 .


이번 주 OpenAI는 "언어 모델은 언어 모델의 뉴런을 설명할 수 있습니다"라는 논문과 LLM의 계층을 벗겨내어 이러한 질문에 대답하는 것을 목표로 하는 오픈 소스 프로젝트를 발표했습니다. 작동 방식 - 특정 지식 영역에서 자주 활성화되는 모델의 신경망 일부 부분의 활동을 관찰한 다음, 더 강력한 GPT-4 모델이 연구 중인 LLM의 특정 부분 또는 뉴런이 무엇인지에 대한 설명을 작성합니다. 책임을 맡은 다음 GPT-4를 사용하여 여러 관련 텍스트 시퀀스에 대한 원본 LLM의 출력을 예측하려고 시도합니다. 그 결과 각 설명에 점수가 할당됩니다.


그러나 이 기술에는 몇 가지 단점이 있습니다. 첫째, 저자가 말했듯이 그들의 방법은 연구된 약 300,000개의 뉴런 중 1,000개의 뉴런에 대해서만 좋은 설명을 제공했습니다.


논문 인용은 다음과 같습니다.

그러나 우리는 GPT-4 기반 설명과 인간 계약자 설명 모두 절대적인 측면에서 여전히 낮은 점수를 받는 것으로 나타났습니다. 뉴런을 살펴볼 때, 우리는 전형적인 뉴런이 매우 다의미적으로 나타나는 것을 발견했습니다. 이는 우리가 설명하는 내용을 변경해야 함을 의미합니다.


두 번째 요점은 이 기술이 현재 훈련 프로세스를 어떻게 개선할 수 있는지에 대한 통찰력을 제공하지 않는다는 것입니다. 그러나 모델 해석성 연구 측면에서는 좋은 노력입니다.


아마도 연구된 뉴런이 상호 의존성을 기반으로 일부 클러스터로 통합되고 이러한 클러스터가 다양한 훈련 절차로 인해 변경될 수 있는 일부 행동 패턴을 보여줄 수 있다면 특정 모델 기능이 훈련 데이터와 어떻게 연관되어 있는지 이해할 수 있을 것입니다. 훈련 정책. 어떤 면에서 이러한 클러스터링과 차별화는 특정 기술을 담당하는 여러 영역으로 뇌가 분할되는 것처럼 보일 수 있습니다. 이는 특정 새로운 기술을 습득하기 위해 LLM을 효율적으로 미세 조정하는 방법에 대한 통찰력을 제공할 수 있습니다.


자치령 대표

또 다른 트렌드 아이디어는 루프형 LLM을 사용하여 자율 에이전트를 만드는 것입니다. Twitter 에는 AutoGPT, AgentGPT, BabyAGI 등과 같은 실험이 가득합니다. 아이디어는 그러한 에이전트에 대한 목표를 설정하고 다른 서비스의 API와 같은 일부 외부 도구를 제공하여 반복 루프 또는 연결 모델을 통해 원하는 결과를 제공할 수 있도록 하는 것입니다.


지난 주 Huggingface는 유명한 Transformers 라이브러리에 Agent를 출시하여 다음을 수행했습니다.

"OpenAssistant, StarCoder, OpenAI 등과 같은 LLM을 사용하여 GenerativeAI 애플리케이션과 자율 에이전트를 쉽게 구축합니다." (c) 필립 슈미드


라이브러리는 자연어로 복잡한 쿼리에 응답하고 다중 모드 데이터(텍스트, 이미지, 비디오, 오디오)를 지원할 수 있는 체인 모델 및 API에 대한 인터페이스를 제공합니다. 이 경우 프롬프트에는 에이전트 설명, 도구 세트(대부분 다른 좁은 범위의 신경망), 몇 가지 예 및 작업이 포함됩니다. 에이전트는 엔지니어가 아닌 사람들의 모델 사용을 용이하게 할 뿐만 아니라 LLM 위에 보다 복잡한 시스템을 구축하기 위한 좋은 시작이기도 합니다. 그런데 여기에 여러분이 알고 있는 것과는 다른 종류의 인터넷인 Natural Language API가 있습니다.


그런데 요즘 Twitter는 AI를 중심으로 정말 열광 하고 있습니다. 모두가 LLM 모델을 기반으로 무언가를 구축하고 이를 세계에 보여주고 있습니다. 저는 업계에서 그렇게 많은 열정을 본 적이 없습니다. 무슨 일이 일어나고 있는지 조사하고 싶다면 Andrew Karpathy의 최근 트윗으로 토끼굴 다이빙을 시작하는 것이 좋습니다.


코딩 부조종사

Github 부조종사를 지원하는 Codex는 한동안 사용되어 왔으며 며칠 전 Colab Pro 구독자로서 저는 Google로부터 6월에 그렇게 할 것이라는 편지를 받았습니다(편지 인용).


Colab에 점차적으로 AI 프로그래밍 기능을 추가하기 시작하세요. 가장 먼저 등장하는 기능은 다음과 같습니다.

  • 코드 완성을 위한 단일 및 여러 줄 힌트;
  • 자연어 코드 생성을 통해 Google 모델에 코드 생성 요청을 보내고 이를 노트북에 붙여넣을 수 있습니다.


그건 그렇고, 지난 주 Google은 PaLM 2 모델 제품군을 발표했습니다. 그중에는 코딩 및 디버깅을 위한 Google의 전문 모델인 Codey가 있으며 아마도 이러한 발표 기능을 강화할 것입니다.


이 섹션을 마무리하기 위해 2016년경 CV 대신 NLP를 개인적으로 선택한 이유는 언어가 사람들이 정보를 전달하는 보편적이고 궁극적인 방법이라는 사실 때문이라고 말하고 싶습니다. 우리는 심지어 우리 언어의 개념으로 생각하기 때문에 시스템은 우리 자신과 우리 주변의 세계를 정의할 만큼 충분히 복잡합니다. 그리고 이는 인간과 같거나 심지어 그 수준을 뛰어 넘는 추론 능력과 의식을 갖춘 언어 중심 시스템을 만들 가능성을 가져옵니다. 우리는 약 반년 전에 그 진정한 추론의 표면을 긁어냈습니다. 우리가 어디에 있고 앞으로 무슨 일이 일어날지 상상해 보세요 .


신비

어떤 이유로든 waitbutwhy 블로그 의 작성자인 Tim Urban에 대해 잘 알지 못한다면 2015년에 AGI에 게시된 그의 게시물을 읽어 보십시오. 불과 7년 전, 주변에 LLM도 없고 Transformer도 없었던 과거에는 이것이 어떻게 보였는지 확인하십시오. 모델이든. 우리가 7년 전 어디에 있었는지 상기시키기 위해 여기에 그의 게시물 몇 줄을 인용하겠습니다.


체스에서 어떤 인간이라도 이길 수 있는 AI를 만들까요? 완료. 6세 그림책의 한 문단을 읽고, 단어만 인식하는 것이 아니라 그 의미까지 이해할 수 있는 책을 만들어 보시겠어요? Google은 현재 이를 위해 수십억 달러를 지출하고 있습니다.


그러나 AGI를 달성한 후에는 상황이 훨씬 더 빠른 속도로 움직이기 시작할 것이라고 그는 약속합니다. 이는 Ray Kurzweil이 공식화한 가속 수익의 법칙 때문입니다.


레이 커즈와일(Ray Kurzweil)은 인류 역사의 수익 가속화 법칙을 부릅니다. 이는 더 발전된 사회가 덜 발전된 사회보다 더 빠른 속도로 발전할 수 있는 능력을 갖고 있기 때문에 발생합니다. 왜냐하면 더 발전된 사회이기 때문입니다.


이 법칙을 현재 LLM에 적용하면 더 나아가서 인터넷에 저장된 모든 데이터에 대해 학습하고 추론하는 능력이 이 초인적인 기억을 인간 수준의 추론으로 가져올 것이며 곧 주변의 가장 똑똑한 사람들이 1997년 체스 챔피언 Kasparov가 Deep Blue 컴퓨터에 패배한 것과 같은 방식으로 기계를 사용합니다.


이것은 우리를 인공 슈퍼 지능(ASI)으로 데려갈 것이지만 아직 그것이 어떻게 보일지는 모릅니다. GPT-4 인간 피드백 학습은 인간 수준의 추론만 제공하므로 훈련을 위한 또 다른 피드백 루프가 필요할 수도 있습니다. 더 나은 모델이 약한 모델을 가르칠 가능성이 매우 높으며 이는 반복적인 프로세스가 될 것입니다.**단지 추측만 하면 됩니다. 살펴보겠습니다.

Tim이 AGI에 대한 그의 게시물의 두 번째 부분 에서 실제로 설명하는 것은 이러한 가속 수익의 법칙으로 인해 우리 시스템이 AGI를 능가하는 지점을 알아차리지 못할 수도 있으며 그때 상황이 우리의 이해에서 약간 벗어날 수 있다는 것입니다.


현재로서는 기술 분야에 종사하는 소수의 사람들만이 실제 진행 속도와 교육 기반 LLM 튜닝이 가져올 놀라운 잠재력을 이해하고 있습니다. 제프리 힌튼(Geoffrey Hinton)은 취업 시장 압박, 가짜 콘텐츠 제작, 악의적인 사용 등의 위험을 공개적으로 언급한 사람 중 한 명입니다. 내가 더욱 중요하게 생각하는 것은 복잡한 기술에 대한 제로샷 학습이 가능한 현재 시스템이 인간보다 더 나은 학습 알고리즘을 가질 수 있다는 점을 그가 지적했다는 것입니다.


최신 LLM에 대한 우려는 LLM이 많은 작업에서 큰 영향력을 제공하지만 이러한 모델을 사용하여 작업할 수 있는 능력(사전 학습, 미세 조정, 의미 있는 메시지 수행 또는 디지털 제품에 통합)이 어렵다는 사실에서 비롯됩니다. 교육/사용 비용 및 기술 측면에서 사회 전체에서 분명히 불평등합니다. 트위터나 Huggingface 커뮤니티의 일부 사람들은 현재 OpenAI 헤게모니에 대한 대안으로 매우 유능한 오픈 소스 LLM을 보유하고 있다고 주장하지만 여전히 추세를 따르고 있고 덜 강력하며 처리하려면 특정 기술이 필요합니다. OpenAI 모델이 큰 성공을 거두는 동안 Microsoft와 Google은 이를 중단시키기 위해 해당 연구에 더 많은 투자를 할 것입니다. 아, 메타 도 마침내 메타버스를 놓아버린다면 말이죠.


오늘날 가장 요구되는 기술 중 하나는 코드 작성입니다. 지난 20년 동안 소프트웨어 엔지니어링이 기술 현장과 급여를 지배했습니다. 코딩 공동 파일럿의 현재 상태를 보면 상용구 코드의 상당 부분이 곧 생성되거나 효율적으로 가져와서 조정될 것으로 보입니다. 이는 사용자에게도 동일한 방식으로 표시되어 개발자에게 많은 시간을 절약하고 일부 시간이 걸릴 수 있습니다. 시장 밖의 일자리 기회.


AGI에 대한 매우 좋은 게시물 에는 AGI가 자율적인 자기 개선이 가능한 것처럼 들리는 또 다른 아이디어가 있습니다. 현재 바닐라 LLM은 여전히 자율적인 대리인이 아니며 어떤 의지력도 포함하지 않습니다. 이는 사람들을 놀라게 하는 두 가지 아이디어입니다. 혹시라도. 강화 학습과 인간 피드백이 포함된 모델의 훈련 프로세스를 혼동하지 마십시오. 여기서 사용된 RL 알고리즘은 OpenAI의 Proximal Policy Optimization 이고 최종 모델은 Transformer 예측 토큰 시퀀스의 디코더 부분입니다.


아마 여러분은 제가 인용한 몇 가지 논문이 지난 주에 발표되었다는 사실을 눈치채셨을 것입니다. 다음 주에는 이 게시물에서 다뤘으면 좋았을 새로운 발표와 아이디어가 나올 것이라고 확신하지만, 그것이 바로 시대의 신호입니다.


우리는 소프트웨어의 새로운 시대로 빠르게 진입하고 있으며 특이점을 향해 몇 걸음 나아간 것 같습니다 . 기계 학습 산업의 혁신은 이미 전례 없는 속도로 일어나고 있습니다 . 지난해에는 한 달에 몇 번씩 볼 수 있었습니다. 몇 가지 큰 릴리스가 있습니다. 즐거운 시간을 보내세요!


PS 다음 폭발은 Musk가 Neuralink를 통해 우리를 LLM에 연결하는 경우입니다.

조달청 . 이 텍스트를 작성하기 위해 단일 OpenAI API 호출이 이루어지지 않았습니다. 나는 내기한다.