본문 바로가기
728x90
반응형

Study134

[Machine learning] PCA(주성분분석), LDA(선형판별분석법), SVD (행렬분해) (쉽게 설명하는 차원 축소 기법들 총정리 part2) (이전 포스팅) https://huidea.tistory.com/44?category=879541 [Machine learning] PCA 주성분분석 (쉽게 설명하는 차원 축소 기법들 총정리 part1) 200803 Index 1. 차원 축소는 왜 하는가? 2. PCA 2.0 기본컨셉 2.1 그림으로 살펴보기 2.2.선형대수학 개념 후려쳐서 2.3 코드로 살펴보기 -------------------------------- (다음 포스팅에서) 3. LDA 4. SVD 1. 차원.. huidea.tistory.com Index 1. 차원 축소는 왜 하는가? 2. PCA (이번 포스팅은 여기서 부터 ) 3. LDA 4. SVD 3. LDA (Linear Discriminant Analysis) 선형판별분석법 .. 2020. 8. 6.
[Study] 참고하면 좋을 기획/데이터분석/개발 블로그 깃헙링크 정리 1. 기획 https://germweapon.tistory.com/391 IT서비스 기획자를 위한 툴 IT서비스 기획자로 일하며 사용하는 툴들이 너무 많다. 그리고 언젠가부터 툴을 사용할 줄 아는 것이 경쟁력이 되어버렸다. 채용 조건에 이런저런 툴들을 올라오는 것을 보면 말이다. 어쨌든 필� germweapon.tistory.com 2. 데이터 분석 https://zzsza.github.io/ Home 메모가 습관인 데이터쟁이입니다 zzsza.github.io https://github.com/corazzon/open-data-analysis-basic corazzon/open-data-analysis-basic 공공데이터로 데이터 분석 시작하기 강좌의 실습코드 입니다. Contribute to cora.. 2020. 8. 4.
[백준][Greedy] 1931번 문제 - 회의실배정 python (200804) 1. 문제설명 즉, 여기서 중요한 거는 최대한 많은 회의실을 배정하게끔 알고리즘을 짜는건데 나는 이걸 회의시간 길이가 짧은 친구들을 중심으로 정렬하면 되겠다고 생각했다. 결론부터 말하자면, 이것은 틀린 접근... 2. 풀이 - 총 3번의 시도 - 3) 번이 정답 1) 딕셔너리로 풀기, 시작 시점 기준 정렬 - 런타임 에러 (이렇게 풀면 안됩니다) import sys N = int(input()) info_list = [] for idx in range(N): st,end = map(int, sys.stdin.readline().split()) dur = end - st info_list.append((st,end,dur)) info_list = sorted(info_list, key = lambda x:.. 2020. 8. 4.
[백준][Greedy] 10610번 문제 - 30 python (200804) 1. 문제 설명 2. 풀이 import sys n = list(sys.stdin.readline().rstrip()) n.sort(reverse=True) if n[-1] != '0' or sum(map(int, n)) % 3 != 0: print(-1) else: print(''.join(n)) 3의 배수 판정법 : 모든 숫자의 합이 3이면 됨. 처음엔 pop 으로 하나씩 뽑아서 판단하는 알고리즘을 만들어야하나 햇지만. 3의 배수는 개별 숫자가 아니라 전체 숫자 합으로 한번에 판명나기에 위의 방법을 선택했음 (아주 간단!) 그리고 해당 문제는 3의 배수가 아닌 30의 배수이기 때문에 1의 자리 숫자가 무조건 0 이어야 한다. 따라서 if 문에 조건 2개를 걸어주었다. 3. 응용 배수 판정법 - 위키백과.. 2020. 8. 4.
[Machine learning] PCA 주성분분석 (쉽게 설명하는 차원 축소 기법들 총정리 part1) 200803 Index 1. 차원 축소는 왜 하는가? 2. PCA 2.0 기본컨셉 2.1 그림으로 살펴보기 2.2.선형대수학 개념 후려쳐서 2.3 코드로 살펴보기 -------------------------------- (다음 포스팅에서) 3. LDA 4. SVD 1. 차원 축소는 왜 하는가? 외출 활동이 좋은지 좋지 않은지 분류하는 머신러닝 모델을 만들고자 한다. 이를 위해 우리는 날씨 데이터를 확보했다. 지금 현재의 풍속, 온도, 습도, 미세먼지, 강수량,... 정말 많은 요인들이 영향을 미칠 것이다. 통계학에서는 이를 독립 변수라 하고, 데이터 분석/ 머신러닝에서는 이를 피쳐(Feature) 라 한다. (본 포스팅에서는 피쳐라고 하겠음) 가령 101개의 야외활동과 관련된 항목들과 그 수치가 나열된 데이터 테이.. 2020. 8. 3.
[백준][heap] 최대 힙, 절댓값 힙 python (200729) 최대힙과 절대값 힙은 앞에 포스팅에서 풀이를 했던 최소 힙에서 약간만 응용하면 아주 쉽게 풀린다 ! https://huidea.tistory.com/29?category=879544 [백준][heap] 최소힙 python (200726) 1. 문제 설명 https://www.acmicpc.net/problem/1927 1927번: 최소 힙 첫째 줄에 연산의 개수 N(1≤N≤100,000)이 주어진다. 다음 N개의 줄에는 연산에 대한 정보를 나타내는 정수 x가 주어진다. 만약 x가 자연수.. huidea.tistory.com 우선 최대힙 부터 살펴보자면, [ 최대힙 ] 1. 문제 설명 https://www.acmicpc.net/problem/11279 11279번: 최대 힙 첫째 줄에 연산의 개수 N(1≤.. 2020. 7. 29.
[Machine learning] 데이터 표준화, 정규화, 피쳐스케일링 - 200729 index 1. 피쳐스케일링, 표준화, 정규화 2. 피쳐의 분포확인 방법. 3. 표준화 정규화 방법. 4. 코드 구현 성능 차이 1. 피쳐 스케일링 표준화 정규화 0) 피쳐 스케일링? 입력된 데이터에는 각각의 피쳐가 있을 텐데, 해당 피쳐들의 값을 일정한 수준으로 맞춰주는 것이 피쳐 스케일링(Feature scalining) 이라 불림. 이때 적용되는 스케일링 방법이 표준화(standardization) 와 정규화(normalization)다. Q. 우선 스케일링을 왜 하나 ? 가령 우리가 특정 기기의 센서 데이터를 가지고 있고 해당 데이터는 온도, 진동, 전류값, 사용 시간 등등의 피쳐를 가지고 있다고 하자 기기명 온도 진동 전류값 사용시간 x1 a1 x2 a2 테이블의 살펴본 온도 값들의 평균이 -1.. 2020. 7. 29.
자꾸 까먹는 SQL 메소드 정리 --21. 문자열 인덱싱 "smith" 앞에 세개만 출력 select substr('smith',1,3) from dual; -- 21. 특정 글자 채우기 연봉 좌로 10개 맞춰서 별채우기 우로 10개 맞춰서 별채우기 ### 기억이 안난다 pad !!!!!! pad!!!!! -- +) 사원, 부서 넘버도 비슷하게 만들어보기 -- python 에서는 이걸 하는게 뭔가 zfill. select lpad(ename,10,'_'), rpad(DEPTNO,10,'*') from emp; --22. 특정 글자 삭제 "SMITH" 에서 하나씩 글자 삭제 해보기 -- trim 은 끝단어만 삭제가 가능하다. LR 은 방향 설정, 양방향으로 하고 싶을 대는 그냥 trim -- python strip select ltrim.. 2020. 7. 29.
[Machine learning] 스태킹 알고리즘 (Stacking algorithm) - 앙상블, 배깅, 부스팅 정리 200728 index 1. 스태킹 알고리즘의 개념 2. 코드 예제 3. 앙상블 - 스태킹, 배깅, 부스팅 4. 스태킹의 장단점 5. 단점을 보완하는 CV세트기반 스태킹 6. 코드예제 1. 스태킹 알고리즘 여러 모델들을 활용해 각각의 예측 결과를 도출한 뒤 그 예측 결과를 결합해 최종 예측 결과를 만들어내는 것 따라서 스태킹 알고리즘에는 총 2가지 단계가 있는데 단계 1. n 개의 모델로 학습 데이터로 학습 모델 생성 단계 2. n 개의 모델에서 학습을 마친 뒤 예측한 값들을 합쳐서 최종 예측 단계 1 과정에서 해당되는게 아래 그림의 Regression models 이고 단계 2 과정에 해당 되는게 Meta-regressor이다. 아래의 사진은 회귀 예측을 기준으로 그림을 도식화 했는데 만약 분류 문제라면 Regre.. 2020. 7. 28.
[Machine learning] 쉽게 설명하는 Grid search - 모델 성능을 최고로 만드는 hyper parameter를 찾아서 (200727) index 1. Grid search 의 정의 2. 코드 구현 및 결과 3. 유사한 다른 방법들 1. Grid search 란 무엇인가? 0) 컨셉 : 모델에게 가장 적합한 하이퍼 파라미터를 찾기 Grid search (격자 탐색) 은 모델 하이퍼 파라미터에 넣을 수 있는 값들을 순차적으로 입력한뒤에 가장 높은 성능을 보이는 하이퍼 파라미터들을 찾는 탐색 방법이다. 다시 모델을 학생에 비유해보자면, 학생에게 문제집을 공부시키기 위해선 여러가지 공부법이 있다. 이 공부법들은 머신러닝/딥러닝 수많은 학습 모델 종류들에 해당 된다. 그리고 그 공부 방법에서도 세부적인 규율들이 있을 것이다. 하루에 몇쪽 풀고 모의고사 칠지, 몇번씩 보고 다음페이지 넘어갈지 어디까지 깊게 공부할지 등등 이 세부적인 규율이 하이퍼.. 2020. 7. 27.
728x90
반응형