목록[AI]/[네이버 BoostCamp | 학습기록] (24)
개발자로 후회없는 삶 살기
서론 ※ 이 포스트는 다음 교재의 학습이 목적임을 밝힙니다. https://wikidocs.net/book/2155 딥 러닝을 이용한 자연어 처리 입문 많은 분들의 피드백으로 수년간 보완된 입문자를 위한 딥 러닝 자연어 처리 교재 E-book입니다. 오프라인 출판물 기준으로 코드 포함 **약 1,000 페이지 이상의 분량*… wikidocs.net -> 전체 코드 https://github.com/SangBeom-Hahn/NLP/blob/main/nlp_book/2_1_%ED%85%8D%EC%8A%A4%ED%8A%B8_%EC%A0%84%EC%B2%98%EB%A6%AC.ipynb GitHub - SangBeom-Hahn/NLP Contribute to SangBeom-Hahn/NLP development ..
서론 ※ 이 포스트는 다음 교재의 학습이 목적임을 밝힙니다. https://wikidocs.net/book/2155 딥 러닝을 이용한 자연어 처리 입문 많은 분들의 피드백으로 수년간 보완된 입문자를 위한 딥 러닝 자연어 처리 교재 E-book입니다. 오프라인 출판물 기준으로 코드 포함 **약 1,000 페이지 이상의 분량*… wikidocs.net -> 전체 코드 https://github.com/SangBeom-Hahn/NLP/blob/main/nlp_book/1_nlp_%EC%A4%80%EB%B9%84.ipynb GitHub - SangBeom-Hahn/NLP Contribute to SangBeom-Hahn/NLP development by creating an account on GitHub. g..
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/@mcodeM/playlists 메타코드M 메타코드에서 SKY출신 / AI기업 현직자에게 무료로 코딩을 배우세요 서울대 , 카이스트, 고려대 + 현업 개발자들의 핵심 코딩/데이터 강의 [비지니스 협업은 메일로 연락주세요 : support@mcode.co.kr] - www.youtube.com 본론 BERT(bidirectional encoder rep transformer= 양방향성을 가지고 있습니다. 트랜스포머의 인코딩 부분을 사용합니다.) & GPT(Generative pretrained transformer = 이름대로 만들어내는 구조입니다.) - bert transformer의 인코더 부분을 사..
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/@mcodeM/playlists 메타코드M 메타코드에서 SKY출신 / AI기업 현직자에게 무료로 코딩을 배우세요 서울대 , 카이스트, 고려대 + 현업 개발자들의 핵심 코딩/데이터 강의 [비지니스 협업은 메일로 연락주세요 : support@mcode.co.kr] - www.youtube.com 본론 - 어텐션 rnn의 단점을 보완하기 위해 만든 것이 lstm이었습니다. 이들은 시간에 따라서 sequential 한 w가 전달되는 특징이 있었습니다. 여기서 파생된 것이 seq2seq였습니다. 이는 인-디코더를 가지고 many-to-many 구조를 띄고 있었고 이것의 문제점을 보완하기 위해 만들어진 것이 at..
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/@mcodeM/playlists 메타코드M 메타코드에서 SKY출신 / AI기업 현직자에게 무료로 코딩을 배우세요 서울대 , 카이스트, 고려대 + 현업 개발자들의 핵심 코딩/데이터 강의 [비지니스 협업은 메일로 연락주세요 : support@mcode.co.kr] - www.youtube.com 본론 - rnn 시간에 따라 변화하는 데이터를 처리하기에 좋은 NN 구조입니다. > 예시 : 음성인식, 음악 생성기, DNA 염기 서열 분석, 번역기, 감정 분석 > state space model입니다. 입력, 상태, 출력을 다루는 모델입니다. history를 가져가는 모델입니다. 세 개의 w를 공유합니다. rn..
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/playlist?list=PL7SDcmtbDTTzQ69rNQ85LyA2WAx438pxz [ 국제 로봇대회 1위 x 서울대 AI ] www.youtube.com 본론 - 유사도 분석 단어와 단어 사이에 문장과 문장 사이에 얼마나 유사성이 있나를 의미합니다. 1. 벡터 유사도 벡터는 크기와 방향을 가지고 있습니다. > 크기가 같고 방향이 다르면 cosine metric을 쓰고 이것은 두 벡터의 내적을 두 벡터의 크기로 나누면 공식에 따라서 cosine 값이 나옵니다. > 이게 무슨 의미냐면 각도입니다. (단어를 임베딩하면 벡터인데 그 벡터가 원점에서 바라보면 각도가 있습니다. 여러 벡터들끼리 각도가 작으면..
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/playlist?list=PL7SDcmtbDTTzQ69rNQ85LyA2WAx438pxz [ 국제 로봇대회 1위 x 서울대 AI ] www.youtube.com 본론 - 텍스트 전처리 자연어를 숫자로 바꾸는 과정 -> 크게 3가지 단계로 나뉩니다. 1. 토큰화, > 2. 정제 및 추출, > 3. 인코딩 1. 토큰화 : 문장을 자르는 것 > i love you를 i/love/you로 나눕니다. 2. 정제 및 추출 : 중요한 단어만 놔두고 다 자르는 것이 입니다. > can you help me on this problem에서 중요한 단어 > (problem,you, can, help) 말고는 다 지워도 됩..
서론 cs231n 10강 강의 내용을 정리합니다. http://cs231n.stanford.edu/ Stanford University CS231n: Deep Learning for Computer Vision Course Description Computer Vision has become ubiquitous in our society, with applications in search, image understanding, apps, mapping, medicine, drones, and self-driving cars. Core to many of these applications are visual recognition tasks such as image cs231n.stanford.edu 본론 ..