본문 바로가기

Stay Hungry Stay Foolish/ML & DL10

Machine Learning 유튜브 강의 생활코딩 유튜브 추천합니다! 머신러닝 강의 요약 https://www.youtube.com/watch?v=LPqmPfhnR1o&list=PLuHgQVnccGMDy5oF7G5WYxLF3NCYhB9H9 1 - 2. 머신러닝이란? 우리는 제품을 구매할 때 선택 기준. 수를 통한 대소관계를 비교한다. 가격, GPU, 디자인 등등 선택 기준이 여러 개라면 선택하기 어려워진다. 머신러닝은 우리의 두뇌가 가진 중요한 기능인 판단 능력을 확장해서 우리의 두뇌가 더 빠르고 정확하게 결정하게 도와준다. 1 - 5. Teachable machine 티쳐블 머신 : 머신러닝에 대한 지식 없이도 사용할 수 있는 플랫폼 Teachable Machine Train a computer to recognize your own imag.. 2023. 5. 9.
[파이토치 첫걸음] 4. 인공신경망 스터디에서 발표한 자료를 공유합니다. 2021. 9. 28.
Faster R-CNN 구현 wolfy.tistory.com/258 [Faster R-CNN] 논문 리뷰 & 구현 (Pytorch) 안녕하세요 ! 소신입니다. R-CNN이랑 Fast R-CNN은 거의 논문리뷰만 하고 구현은 안했는데, Faster R-CNN은 구현까지 해보았습니다. (근데 오류가 있는것 같음..) # Faster R-CNN 구조 Faster R-CNN의 구조는 Fa.. wolfy.tistory.com github.com/chenyuntc/simple-faster-rcnn-pytorch/blob/master/demo.ipynb chenyuntc/simple-faster-rcnn-pytorch A simplified implemention of Faster R-CNN that replicate performance fr.. 2021. 2. 19.
Decision Tree 결정트리 나무구조로 도표화하여 분류/예측을 수행하는 머신러인 알고리즘 (지도학습) 개념/코드가 잘 정리되어있는 글이 있어 첨부합니다. analysis-flood.tistory.com/100 43. Python - 결정 트리(Decision Tree) 자. 오늘은 새로운 챕터, 결정 트리입니다. SVM처럼 결정 트리(Decision tree)는 분류와 회귀 작업 그리고 다중출력 작업도 가능한 다재다능한 머신러닝 알고리즘입니다. 또한, 매우 복잡한 데이터셋 analysis-flood.tistory.com scikit-learn.org/stable/modules/tree.html 1.10. Decision Trees — scikit-learn 0.24.1 documentation 1.10. Decision Trees .. 2021. 2. 3.
[밑바닥부터 시작하는 딥러닝] 4장 신경망 학습 제가 발표했던 자료 및 설명 공유합니다. "밑바닥부터 시작하는 딥러닝" 책의 4장 신경망 학습 내용입니다. 학습 : 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것 신경망이 학습할 수 있도록 해주는 지표인 손실 함수를 알아보자 !! 이 손실 함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습 목표 손실함수의 값을 가급적 작게 만드는 기법으로 함수의 기울기를 활용하는 경사법 소개 ~ 신경망의 특징 : 데이터를 보고 학습할 수 있다는 점. 매개변수의 값을 데이터를 보고 자동으로 결정한다. 알고리즘을 밑바닥부터 설계하는 것 대신 주어진 데이터를 잘 활용해서 해결한다. 이미지에서 특징feature(입력 이미지에서 중요 데이터를 정확하게 추출할 수 있도록 설계된 변환기) 추출 -.. 2021. 2. 1.
[Coursera Deep Learning] Neural Networks and Deep Learning 강의 추천 코세라 DL 강의 추천합니다! 강의 outline 및 중요한 부분을 정리했습니다. I find it really satisfying when I learn about algorithm and they get it coded up and I see it worked for myself. So I hope you enjoy that too. Outline of this Course Week 1 : Introduction Week 2 : Basics of Neural Network programming Week 3 : One hidden layer Neural Networks Week 4 : Deep Neural Networks coursera.org/share/c4aeb004a5233df59080aa893b.. 2021. 1. 26.
[밑바닥부터 시작하는 딥러닝] 정리 링크 공유 파이썬으로 익히는 딥러닝 이론 및 구현을 다루는 가장 유명한 책인 [밑바닥부터 시작하는 딥러닝] 내용 및 코드 정리된 링크 공유합니다. https://sdr1982.tistory.com/201 '밑바닥부터 시작하는 딥러닝' jupyter notebook 정리 노트. '밑바닥부터 시작하는 딥러닝' 책 스터디 한 내용 정리해서 jupyter notebook 으로 올립니다 Github주소 : https://github.com/SDRLurker/deep-learning jupyter notebook 주소 : http://nbviewer.jupyter.org/g.. sdr1982.tistory.com 1장 헬로 파이썬 1.1 파이썬이란? 1.2 파이썬 설치하기 __1.2.1 파이썬 버전 __1.2.2 사용하는 외.. 2021. 1. 24.
넥슨, 강화학습&AI을 이용하여 게임적용 ndcreplay.nexon.com/NDC2018/sessions/NDC2018_0002.html#k%5B%5D=ai NDC Replay 본 홈페이지에 게재, 공개된 발표자료, 동영상, 이미지, 스크립트 등 일체의 저작물(이하 “저작물”이라 합니다)에 대한 저작권 (2차적저작물작성권 및 편집저작물작성권 포함)은 해당 저작물 ndcreplay.nexon.com ndcreplay.nexon.com/NDC2019/sessions/NDC2019_0061.html#c=NDC2019&t%5B%5D=%ED%94%84%EB%A1%9C%EA%B7%B8%EB%9E%98%EB%B0%8D NDC Replay 본 홈페이지에 게재, 공개된 발표자료, 동영상, 이미지, 스크립트 등 일체의 저작물(이하 “저작물”이라 합니다)에 대한.. 2020. 10. 22.
[CS231n] standford university 강의링크 정리 ppt http://cs231n.stanford.edu/syllabus.html Syllabus | CS 231N Schedule and Syllabus The Spring 2020 iteration of the course will be taught virtually for the entire duration of the quarter. (more information available here ) The format of lecture and time is still to be determined. Please stay tuned and check back bef cs231n.stanford.edu https://blog.naver.com/wpxkxmfpdls/221845894049 CS231n 강의.. 2020. 3. 31.
[파이썬 머신러닝 완벽 가이드] 6. 차원 축소(Dimension Reduction) 차원 축소 : 매우 많은 피처로 구성된 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것 -> 잠재적 특성을 피처로 도출해 함축적 형태의 이미지 변환과 암축 수행 가능 -> 과적합 영향력이 작아져서 오히려 원본 데이터로 예측하는 것보다 예측 성능 좋아짐 차원 축소 알고리즘 1. PCA(Principal Component Analysis, 주성분분석) -분산이 데이터의 특성을 가장 잘 나타내는 것으로 간주하여, 데이터 변동성이 가장 큰 방향으로 축을 생성하고, 새롭게 생성된 축으로 데이터를 투영하는 방식. -첫 번째 벡터 축 : 가장 큰 데이터 변동성을 기반으로 생성 두 번째 벡터 축 : 첫 번째 벡터 축에 직각이 되는 벡터(직교벡터) 세 번째 벡터 축 : 두 번째 벡터 축과 직각이 되.. 2020. 3. 5.