일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- R
- 데이터
- 회귀
- 의료데이터
- 경진대회
- nvidia
- CNN
- 공부
- 1D CNN
- 엣지컴퓨팅
- 생체신호
- MAE
- 알고리즘
- NIA
- Undersampling
- 빅데이터
- VitalDB
- Data Imbalance
- 머신러닝
- 데이터분석
- 회귀분석
- Jetson
- 나이브베이즈
- 2D CNN
- GE B650
- VitalRecorder
- 정보화진흥원
- 딥러닝
- edge computing
- 데이터불균형
- Today
- Total
목록공부 (6)
Doyun-lab

Intro 첫번째 알고리즘 공부 후 2주가 지났다. 시험 전 주와 시험 주는 알고리즘 공부를 쉬도록 했고, 이번 주부터 다시 알고리즘을 공부하고 문제를 풀어나가는 스터디를 진행한다. 두번째 공부할 알고리즘은 ‘스택/큐 (Stack/Queue)’이다. What is ‘Stack’ 데이터의 삽입과 삭제가 한쪽 방향에서만 일어나는 구조이다. 가장 나중에 삽입된 데이터가 가장 먼저 삭제되므로 후입 선출(LIFO : Last-In First-Out)이라고도 한다. 삽입은 PUSH, 삭제는 POP 이라는 용어를 사용한다. > 실전 — StackOverFlow Error = 정해진 크기에 무언가를 계속 저장하다가 받아들일 수 있는 크기를 초과하여 흘러넘쳐버린 것 (재귀함수 사용 시) — 뒤로 가기, Ctrl + Z ..

𝖯𝖾𝗋𝖼𝖾𝗉𝗍𝗋𝗈𝗇 𝖭𝖾𝗎𝗋𝗈𝗇 = Dendrite에 여러 값들이 도착하면 하나의 신호로 통합하고, 임의의 임계값을 넘게 되면 이 값이 Axon을 통해 전달된다는 메커니즘 » 뇌세포 Net Input Function (순입력함수) - 입력값 X의 n개의 Feature들이 n+1개의 weight와 곱하여 summation되어 하나의 신호로 통합 Why n+1개 ? — 마지막 1개는 Bias (Prior 역할) Activation Function (활성함수) - 순입력함수의 결과값으로부터 결과값을 생성하는 임의의 함수 ex) 임계값(threshold)와 비교하여 -1 or 1의 결과값 생성 (threshold보다 작으면 -1) 𝖯𝖾𝗋𝖼𝖾𝗉𝗍𝗋𝗈𝗇 = 뉴런의 임계값과 비교하는 부분을 생략하여 간단하..

𝖱𝖾𝗀𝗋𝖾𝗌𝗌𝗂𝗈𝗇 - Classification의 예측 결과 값 = Class or Label - Regresion의 예측 결과 값 = 실수 𝖫𝗂𝗇𝖾𝖺𝗋 𝖱𝖾𝗀𝗋𝖾𝗌𝗌𝗂𝗈𝗇 = Linear Model 표현 - Sum of Squared Error를 최소화하기 위해, 미분하여 얻은 Parameter 수식 𝖱𝗂𝖽𝗀𝖾, 𝖫𝖺𝗌𝗌𝗈 𝖱𝖾𝗀𝗋𝖾𝗌𝗌𝗂𝗈𝗇 - Ridge Regression : Linear Regression에서 얻어지는 Parameter가 너무 커지지 않도록, L2 norm으로 제한 > Overfitting 막아줌 > 위 Cost 함수에 대하여 편미분을 통해 최적의 값 찾기 - Lasso Regression : L1 norm 제한 > 미분 불가능 — 여러 기법 적용하여 최적화 > Feature..

𝖡𝖺𝗒𝖾𝗌 𝖱𝗎𝗅𝖾 e = event or evidence / H = Hypothesis - Likelihood = hypothesis가 사설이라는 조건에서, evidence이 일어날 확률 - Posterior = evidence가 관측되었을 때, hypothesis가 일어날 확률 (사후확률) - Prior = evidence를 관측되기 전, hypothesis가 일어날 확률 (사전확률) - Marginal = 모든 가능한 hypothesis 아래, 새로운 evidence가 일어날 확률 * 중요 수식 장점 - 통계적 추론에 의해 규칙이 정해지고 유연하게 반영됨 - 사전 지식 통합 ex) 바구니 크기에 대한 지식을 바구니 선택 확룰에 반영 단점 - 정확한 값 계산 x, 추론 - feature가 두개..

𝖣𝖾𝖼𝗂𝗌𝗂𝗈𝗇 𝖳𝗋𝖾𝖾 = 나무가 뒤집힌 모양 - 제일 꼭대기에 하나의 Root Node - 각 가지들은 Branch(or Edge) - 자식이 있는 Node는 Internal Node(or Decision Node) - 가장 끝에 자식이 없는 Node는 Leaf Node(or Terminal Node, External Node) 𝖦𝖾𝗇𝖾𝗋𝖺𝗍𝗂𝗇𝗀 𝖠𝗅𝗀𝗈𝗋𝗂𝗍𝗁𝗆 좋은 트리의 기준은 무엇일까 ? - 모델의 정확도나 트리의 높이가 기준이 된다 - 트리의 높이는 최대한 짧은 것 (빠른 수행 속도) - Leaf Node에서 통일된 Label의 데이터만 남는 것 (높은 분류 정확도, 의사결정 정확도) 처음에 어떤 Feature를 고려하는가에 따라 트리 깊이가 달라지는데, 어떤 방법으로 트리를 생성..

인공지능 != 머신러닝 != 딥러닝 인공지능 ⊃ 머신러닝 ⊃ 딥러닝 인공지능과 빅데이터 : 빅데이터 파이프라인의 마지막 분석 단계에서 인공지능 기술 사용 가능 𝖣𝗂𝖿𝖿𝖾𝗋𝖾𝗇𝗍 𝗄𝗂𝗇𝖽𝗌 𝗈𝖿 𝖫𝖾𝖺𝗋𝗇𝗂𝗇𝗀 ☆ 4가지 방법과 각각의 차이점 · Supervised Learning · Unsupervised Learning · Semi-supervised Learning · Reinforcement Learning Supervised Learning - 학습을 위해 ‘정답’이 주어진 데이터 필요 - 주어진 데이터를 ‘분류’하는 작업에 주로 이용 (Classification) - 대표적 분류 모델 : Decision Trees, Neural Networks, Support Vector Machine..