딥러닝 8

딥러닝과 PyTorch

PyTorch 작동 구조 학습 단계Data -> Model  -> Output -> Loss -> OptimizationPyTorch 사용Data : torch.utils.data.Dataset / torch.utils.data.DataLoader Model : torch.nn.Module Loss Function : torch.nn / torch.nn.functional Optimization : torch.optim각 클래스 간 관계  DataDataset과 DataLoader를 사용하여 데이터 로드 - `Dataset`과 `DataLoader`를 사용하면, 데이터 집합에서 미니 배치(전체 데이터 집합을 더 작은 부분집합으로 분할한 일부 데이터)크기의 데이터를 반환- PyTorch에는 이미지 데이터를..

Study/머신러닝 2024.12.17

Deep Learning 기본 모델 구조

합성곱 신경망 (Convolutional Neural Networks , CNN)완전 연결 신경망의 한계점- 이미지 데이터를 학습하기 위해선 1차원으로 평탄화 -> 이미지 데이터가 가지고 있던 “형상 정보”가 사라지면서 무시         -  이미지 형상 정보는 “이미지의 가까운 픽셀은 비슷한 값을 가진다”거나 “거리가 먼 픽셀끼리는 큰 연관성이 없다”와 같은 공간적 정보를 의미 → 합성곱 신경망(Convolutional Neural Network, CNN)이 등장    - 이미지 입력 후 합성곱에 해당하는 연산으로 모델 구조를 정해 놓아, 형상 정보를 유지 합성곱 연산   - 입력 데이터에 필터(Filter) 혹은 커널(Kernel)를 적용하여 윈도우(Window)를 일정 간격으로 이동해가며 수행  ..

Study/머신러닝 2024.12.16

Deep Learning 성능 고도화 학습

* 필수 온라인 강의 Part19 Deep Learning CH04 성능 고도화 학습좋은 모델을 학습하기 위한 기초과소적합(Underfitting)이나 과적합(Overfitting)이 아닌 상태가 적합한 상태(Good fitting)- 과적합 (Overfitting) : 학습 데이터 오차가 일반화 오차에 비해서 현격하게 낮아지는 현상    1)학습 데이터는 부족한데, 2)모델의 파라미터가 많은 상황에서 과적합이 발생 - 이런 상태를 모델이 강건하다(Robust)고 표현편향(Bias)와 분산(Variance) 사이의 관계- 편향 : 평균적으로 얼마나 벗어나있냐?- 분산 : 얼마나 퍼져있냐 -> 둘다 낮은 게 좋음 : 모델의 복잡성이 증가하면 분산은 증가하고 편향은 감소하는 경향 : 모델의 복잡성이 감소하면..

Study/머신러닝 2024.12.16

[AI 부트캠프] MLOps 프로젝트 : 배움과 아쉬움을 남긴 2주간의 도전

부트캠프를 들어온지 한달만에 결성된 팀과 경진대회를 진행하였고,그 팀원들과 함께 다시 MLOps 프로젝트를 진행하였습니다. AI 부트캠프를 진행하면서 실전학습, 기업연계 프로젝트 전에총 3번의 경진대회와 2번의 프로젝트를 경험하는 일정이 있는데,그 중 한번의 경진대회와 한번의 프로젝트를 정말 좋은 팀과 함께 진행을  한다는 것은 큰 행운이었어요. 경진대회와 프로젝트를 진행하면서 처음 협업을 진행하게 되었고,그 안에서 배운 것이 많았습니다.수업을 단순히 듣는 것이 아니라, 이렇게 진행한 프로젝트 덕분에 정말 많이 배웠다고 생각이 됩니다.그래서 그에 대해서 자세히 남기고 싶은 마음에 이렇게 글을 쓰게 되었습니다 그리고 이번에 프로젝트에서는 저의 역활이 아쉬웠다고 생각이 된 점이 있고,프로젝트가 끝나고 홀로 ..

Deep Learning 모델 학습법

* 필수 온라인 강의 Part19 Deep Learning CH03 모델 학습법개요딥러닝을 구성하는 필수적인 요소- 데이터 (Data) : 모델을 학습하기 위해 필요 ( MNIST, Fashion MNIST 등)  - 해결하고자 하는 문제(task)에 따라 필요로 하는 데이터의 형태나 구성이 달라짐- 모델 (Model) : 주어진 데이터를 원하는 결과로 변환 (다층 퍼셉트론(MLP), 컨볼루션 신경망(CNN), 순환 신경망(RNN) 등)  - 입력을 원하는 결과로 바꾸어주는 일련의 연산 과정을 구조화한 것 : 딥러닝의 학습 대상- 손실 함수 (Loss Function) : 모델의 결과에 대한 오차를 수치화 ( 평균절대오차(MAE), 평균제곱오차(MSE), 교차 엔트로피(CE) 등)   - 실제 혹은 목표..

Study/머신러닝 2024.12.13

Deep Learning 기본 개념

* 필수 온라인 강의 Part19 Deep Learning CH02 기본 개념딥러닝 발전 5단계- 시간순- 개발의 방법이 크게 바뀌어서, 단계로 나눈다.- 5단계를 크게 세 단계로 나눠서 SW1.0, SW2.0, SW3.0이라고도 부름 1단계 : 규칙 기반 프로그래밍 (Rule-based programming)   - SW 1.0(사람의 관여가 있음)- 목표 달성에 필요한 연산 방법을 사람이 전부 고안 - 계산을 사람이 설계- 예시) 개,고양이를 구분하는데, 코의 길이/눈의 색상/귀의 길이 등등을 사람이 전부 고민을 해서 설계를 함2단계 : 전통 머신 러닝 기법 (Conventional Machine Learning)   - SW 1.5 (사람의 관여가 있음) - 특징값을 뽑는 방식은 기존처럼 하되, 특..

Study/머신러닝 2024.12.10

[AI 부트캠프] 처음 도전한 경진대회에서 얻은 것들

AI Upstage 부트캠프에는 4번의 경진대회가 있습니다!경진대회를 한다는 것은 알았으나, 어떤 식으로 평가가 되는 지도 몰랐고, 어떻게 진행이 되는 지도 전혀 몰랐습니다. 이번에 부트캠프에서 진행한 경진대회를 막을 내려서, 회고를 하면서어떤식으로 진행이 되는지..!를 한번 정리를 해볼까 해요. 그리고 이 대회가 얼마나 장점이고, 도움이 되었는지에 대해서 말해볼까 해요. 경진대회 소개첫번째 대회는 서울 아파트 실거래가 예측 경진대회는 주어진 데이터를 활용해 아파트 가격을 예측하는 모델을 개발하는 대회였어요.아파트 위치, 크기, 건축 연도, 주변 교통 및 시설 정보 등 다양한 변수를 포함한 데이터를 바탕으로 모델을 학습하며, 선형 회귀, 랜덤 포레스트, 딥러닝 등 다양한 회귀 알고리즘을 활용할 수 있어요..

[AI 부트캠프] 다음 도전은 부트캠프 입니다!

이제 부트캠프를 시작한지 한달하고도 2주가 지나서 6주차입니다:)지원하고 결과가 나오고 두근두근하던게 어제같은데 벌써 6주나 지났네요. 부트캠프를 시작하면서, 꼭 쓰고 싶었던 글이부트캠프를 왜 지원했는지? 어떻게 지원을 하게 되었는지? 를 알려드리고 싶었어요! 석사학위를 받고도 부트캠프에 지원하게 된 좀 특이한 상황이기도 하고,저와 같이 석사후에 부트캠프를 해도 될지!고민을 많이 하는 분들이 있다면 도움이 되는 길이길 바라면서 작성해보아요:)  석사 졸업장을 받은 것은 정확하게 2024년 08월 22일입니다.(졸업요건+지도교수님의 연구년+논문의 문제로 반년 늦은 졸업)부트캠프의 신청일(8월 8일) -> 2차합격 및 녹화면접(08월 12일) -> 최종합격 (08월 21일)그리고 부트캠프의 시작일이 9월 2..