2024/12 17

Pytorch

딥러닝 프레임 워크neural network 구현처음부터 코드로 구현 -> 프레임워크를 사용 - 모든 neural network의 layer를 직접 구현 → 모델을 구성하는데 필요한 모든 구성 요소를 제공  - loss function 구현 → 다양한 loss function 제공  - 모든 layer의 weight, bias에 대해 gradient를 계산 → 자동 미분  - 최적화 알고리즘 구현 → 다양한 optimizer 제공 - 효율적이고 간단함- > 많은 기업에서 딥러닝 프레임워크를 활용하고, 지원 자격으로 능숙한 활용 능력을 요구 프레임워크 트렌드- 이미 많은 딥러닝 프레임워크가 오픈소스로 공개   (TensorFlow(Google) 2. PyTorch(Meta), JAX(Google), MXN..

Study/머신러닝 2024.12.16

Deep Learning 기본 모델 구조

합성곱 신경망 (Convolutional Neural Networks , CNN)완전 연결 신경망의 한계점- 이미지 데이터를 학습하기 위해선 1차원으로 평탄화 -> 이미지 데이터가 가지고 있던 “형상 정보”가 사라지면서 무시         -  이미지 형상 정보는 “이미지의 가까운 픽셀은 비슷한 값을 가진다”거나 “거리가 먼 픽셀끼리는 큰 연관성이 없다”와 같은 공간적 정보를 의미 → 합성곱 신경망(Convolutional Neural Network, CNN)이 등장    - 이미지 입력 후 합성곱에 해당하는 연산으로 모델 구조를 정해 놓아, 형상 정보를 유지 합성곱 연산   - 입력 데이터에 필터(Filter) 혹은 커널(Kernel)를 적용하여 윈도우(Window)를 일정 간격으로 이동해가며 수행  ..

Study/머신러닝 2024.12.16

Deep Learning 성능 고도화 학습

* 필수 온라인 강의 Part19 Deep Learning CH04 성능 고도화 학습좋은 모델을 학습하기 위한 기초과소적합(Underfitting)이나 과적합(Overfitting)이 아닌 상태가 적합한 상태(Good fitting)- 과적합 (Overfitting) : 학습 데이터 오차가 일반화 오차에 비해서 현격하게 낮아지는 현상    1)학습 데이터는 부족한데, 2)모델의 파라미터가 많은 상황에서 과적합이 발생 - 이런 상태를 모델이 강건하다(Robust)고 표현편향(Bias)와 분산(Variance) 사이의 관계- 편향 : 평균적으로 얼마나 벗어나있냐?- 분산 : 얼마나 퍼져있냐 -> 둘다 낮은 게 좋음 : 모델의 복잡성이 증가하면 분산은 증가하고 편향은 감소하는 경향 : 모델의 복잡성이 감소하면..

Study/머신러닝 2024.12.16

[AI 부트캠프] MLOps 프로젝트 : 배움과 아쉬움을 남긴 2주간의 도전

부트캠프를 들어온지 한달만에 결성된 팀과 경진대회를 진행하였고,그 팀원들과 함께 다시 MLOps 프로젝트를 진행하였습니다. AI 부트캠프를 진행하면서 실전학습, 기업연계 프로젝트 전에총 3번의 경진대회와 2번의 프로젝트를 경험하는 일정이 있는데,그 중 한번의 경진대회와 한번의 프로젝트를 정말 좋은 팀과 함께 진행을  한다는 것은 큰 행운이었어요. 경진대회와 프로젝트를 진행하면서 처음 협업을 진행하게 되었고,그 안에서 배운 것이 많았습니다.수업을 단순히 듣는 것이 아니라, 이렇게 진행한 프로젝트 덕분에 정말 많이 배웠다고 생각이 됩니다.그래서 그에 대해서 자세히 남기고 싶은 마음에 이렇게 글을 쓰게 되었습니다 그리고 이번에 프로젝트에서는 저의 역활이 아쉬웠다고 생각이 된 점이 있고,프로젝트가 끝나고 홀로 ..

Deep Learning 모델 학습법

* 필수 온라인 강의 Part19 Deep Learning CH03 모델 학습법개요딥러닝을 구성하는 필수적인 요소- 데이터 (Data) : 모델을 학습하기 위해 필요 ( MNIST, Fashion MNIST 등)  - 해결하고자 하는 문제(task)에 따라 필요로 하는 데이터의 형태나 구성이 달라짐- 모델 (Model) : 주어진 데이터를 원하는 결과로 변환 (다층 퍼셉트론(MLP), 컨볼루션 신경망(CNN), 순환 신경망(RNN) 등)  - 입력을 원하는 결과로 바꾸어주는 일련의 연산 과정을 구조화한 것 : 딥러닝의 학습 대상- 손실 함수 (Loss Function) : 모델의 결과에 대한 오차를 수치화 ( 평균절대오차(MAE), 평균제곱오차(MSE), 교차 엔트로피(CE) 등)   - 실제 혹은 목표..

Study/머신러닝 2024.12.13

추천 시스템 프로젝트, 첫 ML프로젝트 도전

첫 경진대회가 끝나고 바로 시작된 MLOps 프로젝트가 드디어 마무리되었습니다.경진대회를 마친 후 약 일주일간 실시간 강의와 온라인 강의를 병행하며 MLOps의 기초를 배우고, 이를 활용한 프로젝트에 참여하게 되었습니다. 경진대회에서 매우 좋은 성과를 거둔 만큼, 프로젝트에서도 같은 팀원들과 함께 좋은 결과를 낼 수 있을 것이라 기대했습니다.하지만 팀원 모두가 다소 지친 상태였고, 프로젝트 진행 중 예상치 못한 어려움이 많았습니다. 배운 내용을 바로 활용하기보다는 스스로 공부해야 할 부분이 많아 도전의 연속이었습니다. 그럼에도 불구하고, 훌륭한 팀원들의 도움과 협업 덕분에 프로젝트를 성공적으로 마무리할 수 있었습니다. 영화 추천 시스템 만들기팀에서 정한 주제로 진행된 프로젝트는 흔히 접할 수 있는 아이디..

Deep Learning 기본 개념

* 필수 온라인 강의 Part19 Deep Learning CH02 기본 개념딥러닝 발전 5단계- 시간순- 개발의 방법이 크게 바뀌어서, 단계로 나눈다.- 5단계를 크게 세 단계로 나눠서 SW1.0, SW2.0, SW3.0이라고도 부름 1단계 : 규칙 기반 프로그래밍 (Rule-based programming)   - SW 1.0(사람의 관여가 있음)- 목표 달성에 필요한 연산 방법을 사람이 전부 고안 - 계산을 사람이 설계- 예시) 개,고양이를 구분하는데, 코의 길이/눈의 색상/귀의 길이 등등을 사람이 전부 고민을 해서 설계를 함2단계 : 전통 머신 러닝 기법 (Conventional Machine Learning)   - SW 1.5 (사람의 관여가 있음) - 특징값을 뽑는 방식은 기존처럼 하되, 특..

Study/머신러닝 2024.12.10