일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 자료구조끝판왕문제
- ComputerVision
- 중복순열
- f1loss
- BatchNormalization
- noiserobustness
- focalloss
- inference
- labelsmoothing
- clibration
- 우선순위큐
- objectdetection
- 네이버 ai 부스트캠프
- Optimizer
- pytorch
- 정렬
- mmdetectionv3
- 밑바닥부터 시작하는 딥러닝
- DataAugmentation
- 힙
- layernormalization
- ImageClassification
- l2penalty
- cmp_to_key
- Focal Loss
- 프로그래머스
- fasterRCNN
- labelsmoothingloss
- autograd
- 네이버AI부스트캠프
- Today
- Total
목록분류 전체보기 (41)
HealthyAI

1. 우리 고객이 누군지에 대해 먼저 집요하게 묻지 않았다. 2. 직접 경쟁사를 제외한 간접 경쟁사들에 대한 면밀한 시장 조사를 하지 못해 엄격한 차별화를 가질 수 있는 포지셔닝을 못했다. 3. 단 하나의 핵심 서비스를 먼저 계획 하지 못하고 여러 기능으로 분산 됐다. 4. 실험과 검증의 과정을 충분히 거치지 못했다. 서비스의 비전을 한줄로 표현하지 못했다.
보호되어 있는 글입니다.

1. Object detection What is object detection? 이미지 내 물체의 위치와 물체의 종류를 맞추는 문제에요. Application Autonomous driving Optical Character Recognition(OCR) 2. Two - Stage Detector Traditional methods HOG = Histogram of Oriented Gradients, SVM = Support Vecor Machine 사람 경계선의 평균 - 사람을 찾는데 도움이 돼요. 사람의 직관을 통해 알고리즘 설계 SVM : 선형 분류기 관찰할 물체인지 판별하는 도구 Selective Search bounding box 를 추천 해줘요. over segmentation - 잘게 쪼개..

Focal Loss Focal Loss는 Imbalanced Data 문제를 해결하기 위한 손실함수에요. Object Detection 모델 중 1 stage detector (YOLO, SSD) 와 같이 anchor box를 활용해 dense prediction을 하는 모델들은 현재까지 사용하고 있는 Loss function 이에요. ref:Focal Loss CE Loss 의 한계 CE Loss 는 모든 sample 에 대한 예측 결과에 동등한 가중치를 둔다는 점이 단점이에요. Foreground 와 Background 모두 같은 Loss 값을 가진다는 것이 문제에요. Background 케이스의 수가 훨씬 더 많기 때문에 같은 비율로 Loss 값이 업데이트되면 Background 에 대해 학습이 훨..

Regularization Backgrounds Overfitting이 일어나지 않게 하고, generalization performance(일반화 성능)를 높이기 위해 필요한 방법들을 말해요. 모델의 복잡성을 조절하고 처음 본 test data에 일반화된 성능을 더 잘 보여줄수 있게 해줘요. Overfitting(과적합) 정의 : 학습데이터에 과하게 치중되게 학습되어 테스트 데이터, 성능평가 시 좋은 성능을 보이지 못하는 현상을 말한다. 발생 매개변수가 많고 표현력이 높은 모델, 훈련데이터가 적은 경우에 주로 발생 가중치 매개변수의 값이 커서 주로 발생 Regularization 방법 L1, L2 regularization Cost function(loss function) = Loss + Regula..
보호되어 있는 글입니다.
보호되어 있는 글입니다.
보호되어 있는 글입니다.
보호되어 있는 글입니다.
보호되어 있는 글입니다.