본문 바로가기
728x90
반응형

분류 전체보기150

[NLP] LSTM, GRU의 한계와 Attention 등장(201015) Q. LSTM GRU 의 한계는 뭔가요 ? Q. Attention 은 무엇인가요 ? 1. LSTM GRU 의 특징과 한계 seq2seq 모델은 인코더에서 입력 시퀀스를 컨텍스트 벡터라는 하나의 고정된 크기의 벡터 표현으로 압축 디코더는 이 컨텍스트 벡터를 통해서 출력 시퀀스를 만들어냄 RNN에 기반한 seq2seq 모델에는 크게 두 가지 문제가 있다. 첫째, 하나의 고정된 크기의 벡터(context vector) 에 모든 정보를 압축하려고 하니까 정보 손실이 발생 둘째, RNN의 고질적인 문제인 기울기 소실(Vanishing Gradient) 문제가 존재 이를 극복하기 위해 LSTM, GRU는 Ct를 추가했지만 그럼에도 불구하고.... 따라서 디코더에서 output 을 뽑아낼때, 인코더의 최종 결과물인 .. 2020. 10. 15.
[프로그래머스][greedy] 섬연결하기(201015) 1. 문제 설명 https://programmers.co.kr/learn/courses/30/lessons/42861 코딩테스트 연습 - 섬 연결하기 4 [[0,1,1],[0,2,2],[1,2,5],[1,3,1],[2,3,8]] 4 programmers.co.kr \ n개의 섬 사이에 다리를 건설하는 비용(costs)이 주어질 때, 최소의 비용으로 모든 섬이 서로 통행 가능하도록 만들 때 필요한 최소 비용을 return 하도록 solution을 완성하세요. 다리를 여러 번 건너더라도, 도달할 수만 있으면 통행 가능하다고 봅니다. 예를 들어 A 섬과 B 섬 사이에 다리가 있고, B 섬과 C 섬 사이에 다리가 있으면 A 섬과 C 섬은 서로 통행 가능합니다. 제한사항 섬의 개수 n은 1 이상 100 이하입니다.. 2020. 10. 15.
[Deep Learning] CNN의 stride, channel, feature map Q. CNN에서 stride, channel, feature map 이 무엇을 의미하는지 설명해주세요 (실제로 면접질문이었음) 1. CNN은 convolutional neural network이며 필터를 옮겨가며 입력 매트릭스를 학습하는 방식 필터가 2d 즉 좌우상하로 움직이는 경우는 데이터가 이미지 일때 그렇게 사용하고 필터가 1d 즉 상하로만 움직이는 경우는 데이터가 텍스트 일때다 그림을 통해 보자면 ! 일단 문제에서 물어본 stride, channel, featuremap 을 살펴보기 위해 이미지의 예를 들어 설명해보겠음. filter (= kernel) : 저 움직이는 네모박스 ! , 이미지의 특징을 잡아내는 학습 파라미터 stride : 필터의 이동량 (1칸씩 움직이는지 2칸씩 움직이는지 ) c.. 2020. 10. 15.
[프로그래머스][greedy] 단속카메라(201014) 1. 문제 설명 programmers.co.kr/learn/courses/30/lessons/42884 코딩테스트 연습 - 단속카메라 [[-20,15], [-14,-5], [-18,-13], [-5,-3]] 2 programmers.co.kr 문제 설명 고속도로를 이동하는 모든 차량이 고속도로를 이용하면서 단속용 카메라를 한 번은 만나도록 카메라를 설치하려고 합니다. 고속도로를 이동하는 차량의 경로 routes가 매개변수로 주어질 때, 모든 차량이 한 번은 단속용 카메라를 만나도록 하려면 최소 몇 대의 카메라를 설치해야 하는지를 return 하도록 solution 함수를 완성하세요. 제한사항 차량의 대수는 1대 이상 10,000대 이하입니다. routes에는 차량의 이동 경로가 포함되어 있으며 route.. 2020. 10. 14.
[Machine learning] 나이브베이즈확률, 나이브베이즈모델 (day4 / 201013) (거의 자정넘어시작하지만 그래도13일이라치자...) 0. 나이브 베이즈 1. 조건부 확률과 베이즈 정리 2. 나이브 베이즈 예시 - 스팸분류~! Q. 다른 좋은 머신 러닝 대비, 오래된 기법인 나이브 베이즈(naive bayes)의 장점을 옹호해보세요. 0. 나이브 베이즈가 뭔데? " 특성들 사이의 독립을 가정하는 베이즈 정리를 적용한 확률 분류기 " 그렇다면 베이즈 정리는 뭔가? 1. 조건부 확률, 나이브 베이즈 # 조건부 확률 : P(A|B)가 B가 일어나고나서 A가 일어날 확률 # 베이즈 정리 : 베이즈 정리는 조건부 확률을 계산하는 방법 중 하나입니다. P(A) 가 A가 일어날 확률, P(B) 가 B가 일어날 확률, ==> P(A), P(B) 사전 확률 P(B|A) 가 A가 일어나고나서 B가 일어.. 2020. 10. 14.
[프로그래머스][탐색] 스킬트리(201013) 1. 문제 설명 선행 스킬이란 어떤 스킬을 배우기 전에 먼저 배워야 하는 스킬을 뜻합니다. 예를 들어 선행 스킬 순서가 스파크 → 라이트닝 볼트 → 썬더일때, 썬더를 배우려면 먼저 라이트닝 볼트를 배워야 하고, 라이트닝 볼트를 배우려면 먼저 스파크를 배워야 합니다. 위 순서에 없는 다른 스킬(힐링 등)은 순서에 상관없이 배울 수 있습니다. 따라서 스파크 → 힐링 → 라이트닝 볼트 → 썬더와 같은 스킬트리는 가능하지만, 썬더 → 스파크나 라이트닝 볼트 → 스파크 → 힐링 → 썬더와 같은 스킬트리는 불가능합니다. 선행 스킬 순서 skill과 유저들이 만든 스킬트리1를 담은 배열 skill_trees가 매개변수로 주어질 때, 가능한 스킬트리 개수를 return 하는 solution 함수를 작성해주세요. 제한 .. 2020. 10. 14.
[프로그래머스][Search] 주사위게임(201012) 1. 문제 설명 문제 설명 XX 모바일 보드게임은 같은 크기의 칸으로 구분된 직선 모양의 게임 보드와 특별한 주사위 3개를 사용해서 진행합니다. 주사위는 각각 1부터 S1, S2, S3까지의 숫자 중 하나가 나오며, 3개의 주사위를 동시에 굴려 나온 숫자의 합만큼 캐릭터를 이동시킵니다. 게임 보드의 몇몇 칸에는 몬스터가 있으므로, 캐릭터는 도착한 칸에서 몬스터를 만나게 될 수도 있습니다. 다음은 S1 = 2, S2 = 3, S3 = 4인 경우의 예시입니다. 위 그림에서 별은 캐릭터이며, 붉은 사각형은 몬스터입니다. 캐릭터는 1번 칸에 있습니다. 주사위를 던져 나온 숫자가 1, 1, 2라면 캐릭터는 총 4칸을 이동하여 5번째 칸에 도착해 몬스터를 만납니다. 반면에 주사위를 던져 나온 숫자가 2, 2, 1이.. 2020. 10. 12.
[Machine learning] 잠재디리클레할당 (day3 / 201012) 오늘의 질문 ! 텍스트 더미에서 주제를 추출해야 합니다. 어떤 방식으로 접근해 나가시겠나요? SVM은 왜 반대로 차원을 확장시키는 방식으로 동작할까요? 거기서 어떤 장점이 발생했나요? 다른 좋은 머신 러닝 대비, 오래된 기법인 나이브 베이즈(naive bayes)의 장점을 옹호해보세요. Q. 텍스트 더미에서 주제를 추출해야 합니다. 어떤 방식으로 접근해 나가시겠나요? 토픽 모델링을 해야한다. 토픽 모델링에는 다양한 기법이 있지만 그중 가장 기초적인 기법 부터 하나씩 살펴보자면 ~ 1. 잠재디리클레할당(Latent Dirichlet Allocation, LDA) : LDA는 문서들은 토픽들의 혼합으로 구성되어져 있으며, 토픽들은 확률 분포에 기반하여 단어들을 생성한다고 가정 데이터가 주어지면, LDA는 문.. 2020. 10. 12.
[백준] 1026번 보물 python (201011) 1. 문제 설명 www.acmicpc.net/problem/1026 1026번: 보물 첫째 줄에 N이 주어진다. 둘째 줄에는 A에 있는 N개의 수가 순서대로 주어지고, 셋째 줄에는 B에 있는 수가 순서대로 주어진다. N은 50보다 작거나 같은 자연수이고, A와 B의 각 원소는 100보다 작거� www.acmicpc.net 핵심은 가장 큰 수 * 가장 작은 수 로 곱해주어야, 총 합이 최소값이 나오게 된다. 8 * 0 7 * 1 3 * 1 2 * 1 1 * 6 이렇게 밑에 줄은 내림차순, 위에 줄은 오름차순으로 정렬해서 곱해주면 최솟 값이 나옴 하지만, 문제의 제약조건으로 정렬을 해서는 안된다고 한다... !! 정렬을 해도 맞다고 정답은 뜨지만, 우선 정렬을 한 경우와 하지 않은 경우 두개다 보겠다. 2... 2020. 10. 11.
[Machine learning] Markov Chain, Gibbs Sampling, 마르코프 체인, 깁스 샘플링 (day2 / 201010) Q. Markov Chain을 고등학생에게 설명한다면 어떤 방식이 좋을까요? Q. Markov Chain 은 머신러닝 알고리즘 중 어디에 활용이 되나요? Q. 깁스 샘플링 은 무엇인가 Q. 깁스 샘플링 은 왜 쓰는가 ? Q. Markov Chain을 고등학생에게 설명한다면 어떤 방식이 좋을까요? sites.google.com/site/machlearnwiki/RBM/markov-chain (제가 보려고 여기에 다시 옮겨 적어유 원문은 링크로 ! ) Markov Chain - MLWiki 마코프 체인 마코프 체인(Markov Chain)은 마코프 성질(Markov Property)을 지닌 이산 확률 과정(Discrete-time Stochastic Process)을 의미한다 마코프 성질 마코프 성질이라 함.. 2020. 10. 10.
728x90
반응형