목록[AI] (68)
개발자로 후회없는 삶 살기
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/playlist?list=PL7SDcmtbDTTzQ69rNQ85LyA2WAx438pxz [ 국제 로봇대회 1위 x 서울대 AI ] www.youtube.com 본론 - 유사도 분석 단어와 단어 사이에 문장과 문장 사이에 얼마나 유사성이 있나를 의미합니다. 1. 벡터 유사도 벡터는 크기와 방향을 가지고 있습니다. > 크기가 같고 방향이 다르면 cosine metric을 쓰고 이것은 두 벡터의 내적을 두 벡터의 크기로 나누면 공식에 따라서 cosine 값이 나옵니다. > 이게 무슨 의미냐면 각도입니다. (단어를 임베딩하면 벡터인데 그 벡터가 원점에서 바라보면 각도가 있습니다. 여러 벡터들끼리 각도가 작으면..
서론 ※ 이 포스트는 다음 강의의 학습이 목표임을 밝힙니다. https://www.youtube.com/playlist?list=PL7SDcmtbDTTzQ69rNQ85LyA2WAx438pxz [ 국제 로봇대회 1위 x 서울대 AI ] www.youtube.com 본론 - 텍스트 전처리 자연어를 숫자로 바꾸는 과정 -> 크게 3가지 단계로 나뉩니다. 1. 토큰화, > 2. 정제 및 추출, > 3. 인코딩 1. 토큰화 : 문장을 자르는 것 > i love you를 i/love/you로 나눕니다. 2. 정제 및 추출 : 중요한 단어만 놔두고 다 자르는 것이 입니다. > can you help me on this problem에서 중요한 단어 > (problem,you, can, help) 말고는 다 지워도 됩..
서론 Sketch2Fashion은 스케치 의류 이미지를 실제 이미지로 변환하는 작업을 수행합니다. 스케치 관련 GAN은 몽타주를 실제 얼굴로 바꾸거나 연필 스케치 그림을 실제 작품으로 바꾸는 등 다양합니다. 본 포스팅에서 주요 내용 위주로 논문을 번역/ 요약하였습니다. > 논문에서는 사람이 그린 의류 디자인 스케치를 실제 의류로 변환하는 논문을 다룹니다. 틀린 내용이 있으면 피드백 부탁드립니다. - 논문 제목 : Sketch2Fashion: Generating clothing visualization from sketches - 저자 : Manya Bansal, David Wang, Vy Thai 본론 - 논문 - 깃허브 https://github.com/vythaihn/Sketch2Fashion-pyt..
서론 교과목 10주차 오토인코더에 관한 내용을 정리합니다. 본론 - 인-디코더라면? encoding 과정은 입력 데이터를 가지고 잠재 공간상의 한 벡터로 변환하는 과정이 인코더의 역할입니다. > 디코더는 잠재 공간을 다시 출력 form으로 대응시켜 주는 것 > 잠재 공간을 feature map이라고 생각하면 됩니다. - 활용 노이즈 영상을 입력으로 넣어서 노이즈를 제거하는 영상이 생성/ 해상도/ 복원(문화재)/ 과거의 흑백 영화를 컬러 영화로 바꾸기 시멘틱 분할 등등 - 유명한 네트워크 1. fcn(fully convolution netwokr) dense가 없습니다. 모든 레이어가 conv로 되어있습니다. > 인코더는 vgg16으로 cnn 층입니다. = feature 뽑는 과정입니다. > 여기까지 줄이..
서론 교과목 7주차 단어 임베딩에 관한 내용을 정리합니다. 본론 - NLP에서 단어의 중요성 단어는 사람끼리 대화를 할 때 의미를 알아들어야 합니다. > 즉 단어에 의미가 있습니다. + 대화에는 문맥이 있어서 문장에서 몇 개 빠져도 무슨 단어가 나와야 하는지 추측합니다. > 따라서 문장을 구성하는 게 단어라서 단어를 모르면 자연어 처리는 없습니다. + 단어는 의미를 가집니다. 같은 단어도 다른 뜻을 가지는 경우도 많고 상황에 따라 다 다릅니다. > 모델이 단어를 이해해야 합니다. 뜻을 알아야 사용할 수 있습니다. > 따라서 개념의 나열이고 개념의 조합입니다. 개념을 놓치면 자연어는 없습니다. (= 이미지도 이미지에서 이해를 해야 하는 것입니다.) > 단어를 가까운 단어 틀린 단어 등 표현하지 않으면 이해..
서론 cs231n 10강 강의 내용을 정리합니다. http://cs231n.stanford.edu/ Stanford University CS231n: Deep Learning for Computer Vision Course Description Computer Vision has become ubiquitous in our society, with applications in search, image understanding, apps, mapping, medicine, drones, and self-driving cars. Core to many of these applications are visual recognition tasks such as image cs231n.stanford.edu 본론 ..
서론 교과목 9주차 순환 신경망 활용에 관한 내용을 정리합니다. 본론 - rnn이란? 앞에서 배운 건 모두 다 feed forward입니다. > 입력에 따라서만 출력이 결정되지 다른 요인으로는 출력에 영향을 받지 않고 내부에 시간이 흘러도 기억하고 있는 정보가 있어서 뭐 새로 들어온 데이터랑 결합해서 출력하는 그런 일이 없습니다. + dnn은 입력이 서로 독립적이라고 가정합니다. 이 가정은 시퀀스 데이터에는 해당되지 않습니다. 예를 들어 문장의 단어, 작곡의 음표, 시간에 따른 주가는 요소들이 이전 요소에 종속성을 나타내는 시퀀스의 예입니다. rnn은 순차 데이터를 처리합니다 : 입력 데이터가 순서가 있는 시퀀스 데이터입니다. 혹은 출력이 순서가 있는 시퀀스입니다 혹은 양쪽 다 순서가 있는 시퀀스 데이터..
서론 교과목 9주차 트랜스포머 내용을 정리합니다. 본론 - 정적 임베딩의 문제점 이건 한 번 학습이 끝나서 벡터화되면 새로운 문장이 들어와도 동일 단어는 동일한 벡터가 됩니다. 내가 과학 문서로 W2V를 학습시켰는데 법률 문서의 같은 단어를 가져와도 W2V를 적용하면 과학 문서에서 임베딩한 결과와 같은 결과가 나옵니다. -> 우리가 기대하는 것은 테스트 데이터(새로운 데이터)를 임베딩하라고 넣었을 때 ★주변의 단어에 따라서 같은 단어를 기존의 벡터와는 다른 벡터로 바꾸는 것을(임베딩) 기대합니다★ = 동적 임베딩 -> 단순 단어의 예측이 아니고 언어 구조와 문법을 다 익힌 것으로 연상 가능합니다. - 동적 임베딩 중의어, 동음이의어 : 다 다른 은행인데 옆의 의미를 보지 않고 무조건 (ex 101010)..