AI/Hands-on ML

AI/Hands-on ML

[핸즈온 머신러닝] 17장(5) - DCGAN, ProGAN, StyleGAN

🏃 이전 글 # 생성적 적대 신경망, GAN이란? [핸즈온 머신러닝] 17장(4) - GAN, 생성적 적대 신경망 [AI/Hands-on ML] - [핸즈온 머신러닝] 17장(3) - 변이형 오토인코더, Variational AutoEncoder [핸즈온 머신러닝] 17장(3) - 변이형 오토인코더, Variational AutoEncoder [AI/Hands-on ML] - [핸즈온 머신러닝].. kdeon.tistory.com 17. 9. 2 심층 합성곱 GAN, DCGAN 2014년 원본 GAN 논문에서는, 합성곱 층을 통해 작은 이미지만 생성하였다. 그 후, 큰 이미지를 위해 깊은 합성곱 층 기반의 GAN을 만들기 위해 노력하였고, -> 2015년, 여러 구조와 하이퍼파라미터 실험 끝에 심층 합성..

AI/Hands-on ML

[핸즈온 머신러닝] 17장(4) - GAN, 생성적 적대 신경망

🏃 이전 글 # 변이형 오토인코더, Variational AutoEncoder [핸즈온 머신러닝] 17장(3) - 변이형 오토인코더, Variational AutoEncoder [AI/Hands-on ML] - [핸즈온 머신러닝] 17장(2) - 합성곱 오토인코더, 순환 오토인코더, 잡음 제거 오토인코더, 희소 오토인코더 [핸즈온 머신러닝] 17장(2) - 합성곱 오토인코더, 순환 오토인코더, 잡음 kdeon.tistory.com 17. 9 생성적 적대 신경망 - 2014년 논문에서 제안된 아이디어로, 획기적이지만 GAN 훈련의 어려움을 극복하는 데 많은 시간이 걸렸음 - 신경망을 서로 겨루게 하고 경쟁을 통해 신경망을 향상하는 것을 기대함 생성자 랜덤한 분포(ex. 가우시안 분포)를 입력으로 받아 이미..

AI/Hands-on ML

[핸즈온 머신러닝] 17장(3) - 변이형 오토인코더, Variational AutoEncoder

[AI/Hands-on ML] - [핸즈온 머신러닝] 17장(2) - 합성곱 오토인코더, 순환 오토인코더, 잡음 제거 오토인코더, 희소 오토인코더 [핸즈온 머신러닝] 17장(2) - 합성곱 오토인코더, 순환 오토인코더, 잡음 제거 오토인코더, 희소 오 [AI/Hands-on ML] - [핸즈온 머신러닝] 17장 - 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습 [핸즈온 머신러닝] 17장 - 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습 17. 오토인코더와 GAN 오 kdeon.tistory.com 17. 8 변이형 오토인코더, Variational AutoEncoder 2014년 소개된 오토인코더로, 매우 인기 있는 오토인코더 중 하나이다. 이전 글에서 봤던 오토인코더들은(Denoising..

AI/Hands-on ML

[핸즈온 머신러닝] 17장(1) - 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습

17. 오토인코더와 GAN 오토인코더 지도 없이도 잠재 표현 또는 코딩이라 부르는 입력 데이터의 밀집 표현을 학습할 수 있는 신경망 - 코딩은 일반적으로 입력보다 훨씬 낮은 차원을 가지므로 오토인코더가 차원 축소, 특히 시각화에 사용됨 (오토인코더가 강력한 특성 추출기처럼 작동하므로 심층 신경망의 비지도 사전훈련에 사용되는 것) - 일부 오토인코더는 훈련 데이터와 매우 비슷한 새로운 데이터를 생성할 수 있음 -> 생성 모델 생성적 적대 신경망 (GAN) 초해상도(이미지 해상도 높이기), 이미지를 컬러고 바꾸기, 강력한 이미지 편집, 간단한 스케치->실제 이미지, 동영상에서 다음 프레임 예측하기, 데이터 증식, 다른 모델의 취약점 식별 및 개선 등 널리 사용됨 오토인코더와 GAN 모두 비지도 학습으로, 둘..

AI/Hands-on ML

[핸즈온 머신러닝] 17장(2) - 합성곱 오토인코더, 순환 오토인코더, 잡음 제거 오토인코더, 희소 오토인코더

[AI/Hands-on ML] - [핸즈온 머신러닝] 17장 - 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습 [핸즈온 머신러닝] 17장 - 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습 17. 오토인코더와 GAN 오토인코더 지도 없이도 잠재 표현 또는 코딩이라 부르는 입력 데이터의 밀집 표현을 학습할 수 있는 신경망 - 코딩은 일반적으로 입력보다 훨씬 낮은 차원을 가지므로 오토 kdeon.tistory.com 17. 4 합성곱 오토인코더, Convolutional AutoEncoder 이미지를 다룰 때는, 합성곱 신경망이 밀집 네트워크보다 잘 맞음 -> 이미지에 대한 오토인코더를 위한 합성곱 오토인코더 인코더는 합성곱 층과 풀링 층으로 구성된 일반적인 CNN - 입력에서 공간 방향의 차원..

AI/Hands-on ML

[핸즈온 머신러닝] 15장(2) - RNN과 CNN을 사용해 시퀀스 처리하기 (긴 시퀀스)

[AI/Hands-on ML] - [핸즈온 머신러닝] 15장(1) - RNN과 CNN을 사용해 시퀀스 처리하기 [핸즈온 머신러닝] 15장(1) - RNN과 CNN을 사용해 시퀀스 처리하기 15. 순환 신경망 RNN - 시계열 데이터를 분석해서 주식 가격 등을 예측하고, 자율 주행 시스템에서는 차의 이동 경로를 예측하여 사고를 피하도록 도움 - 일반적으로 이 신경망은 고정 길이 입력이 kdeon.tistory.com 15. 4 긴 시퀀스 다루기 긴 시퀀스로 RNN을 훈련하려면, 많은 타임 스텝에 걸쳐 실행해야 하므로 펼친 RNN이 매우 깊은 네트워크가 됨 1. 그래디언트 소실/폭주 문제가 있을 수 있음 2. 또한 RNN이 긴 시퀀스를 처리할 때 입력의 첫 부분을 조금씩 잊어버리게됨 15. 4. 1 불안정한..

KIM DEON
'AI/Hands-on ML' 카테고리의 글 목록