남기고 싶은 이야기들: 대담으로 읽는 역사. 1 또는 케라스로 배우는 신경망 설계와 구현 > 도서

본문 바로가기

도서

남기고 싶은 이야기들: 대담으로 읽는 역사. 1 또는 케라스로 배우는 신경망 설계와 구현

땅끝
2025-04-13 19:24 5 0

본문




남기고 싶은 이야기들: 대담으로 읽는 역사. 1
9791161432793.jpg


도서명 : 남기고 싶은 이야기들: 대담으로 읽는 역사. 1
저자/출판사 : 이상규 , 신재철 , 김흥식 엮음, 쿰란출판사
쪽수 : 400쪽
출판일 : 2019-08-30
ISBN : 9791161432793
정가 : 15000

머리말

김경래 _ 선지자적 교회가 되어야 합니다
김영동 _ 신학의 전통과 생활의 순결을 위해
김창인 _ 세상의 부귀는 헛된 것이지요
노진현 _ 서로 연합해야 합니다
류윤욱 _ 반고소가 성경적입니다
박도호 _ 개혁된 교회는 항상 개혁해 가야 합니다
박병식 _ 박윤선 목사님은 말씀과 기도의 사람입니다
박유생 _ 전도하는 교회가 진정한 교회입니다
박윤섭 _ 고신 교단이 성장해야 합니다
박인순 _ 되돌아보면 다 하나님의 은혜이지요
박재영 _ 좋은 교단을 만듭시다
박종수 _ 성경 교육이 고신교회의 정체성입니다
박치덕 _ 하나님께서 나를 건져주셨지요
박희천 _ 성경을 읽어야 강단이 새로워집니다
손동희 _ 사랑이 넘치는 교회가 되어야 합니다
손봉호 _ 성경을 따르는 순수한 열정이 있어야 합니다
오혜순 _ 오종덕 목사는 성경을 사랑하셨던 분입니다
유환준 _ 현지 선교사 존중이 바른 선교정책입니다
이금도 _ 고려파는 고려파만의 보화가 있습니다
이종만 _ 고신 교단은 새로운 역사를 기록해야 합니다
조석연 _ 고신과 고려 교단은 본래부터 하나였습니다
최성순 _ 하나님의 인도를 따라갈 뿐입니다
최일구 _ 나의 갈 길 다 가도록 예수 인도하시니
최진도 _ 영혼 구원에 힘쓰는 교회가 되어야 합니다
하찬권 _ 성도 간의 불신법정 소송은 불가합니다
한명동 _ 신학교는 지성과 영성을 겸비해야 합니다
한종희 _ 고려신학교는 고신운동의 근원지였습니다
허순길 _ 개혁교회 신앙 원리를 회복해야 합니다
홍치모 _ 영성 회복은 회개로 가능합니다




케라스로 배우는 신경망 설계와 구현
9791161753782.jpg


도서명 : 케라스로 배우는 신경망 설계와 구현
저자/출판사 : 닐로이 푸르카이트, 에이콘출판
쪽수 : 576쪽
출판일 : 2020-02-21
ISBN : 9791161753782
정가 : 40000

1부. 뉴럴 네트워크 기본

1장. 뉴럴 네트워크 개요
__목표 정의
__도구 확인
____케라스
____텐서플로
__뉴럴 학습 기본
____뉴럴 네트워크
____두뇌 관찰
__데이터 과학 기본
____정보 이론
____엔트로피
____교차 엔트로피
____데이터 처리 특성
____데이터 과학에서 머신러닝으로
____머신러닝의 함정
__요약
__더 읽을거리

2장. 뉴럴 네트워크 깊이 들여다보기
__퍼셉트론: 생리학적 뉴런에서 인공지능 뉴런으로
__퍼셉트론 구축
____입력
____가중치
____총화
____비선형성
____바이어스의 역할
____출력
__오차를 활용한 학습
____평균 제곱 오차 손실 함수
__퍼셉트론 훈련
____손실 정량화
____모델 가중치 함수로서의 손실
__역전파
____기울기 계산
____학습률
__퍼셉트론 확장
__단일 레이어 네트워크
____텐서플로 플레이그라운드
____패턴 계층 확인
____한 걸음 더
__요약

3장. 신호 처리: 뉴럴 네트워크를 활용한 데이터 분석
__신호 처리
____표상적 학습
____무작위 기억 회피
____숫자를 활용한 신호 표현
__숫자를 활용한 이미지 표현
__뉴럴 네트워크에 데이터 입력
__텐서 예제
____데이터의 차원
____패키지 임포트
____데이터 로드
____차원 확인
__모델 구축
____케라스 레이어
____가중치 초기화
____케라스 활성화 함수
____모델 시각화
__모델 컴파일
____모델 피팅
__모델 성능 평가
____정규화
__케라스를 활용한 가중치 정규화 구현
__가중치 정규화
__케라스를 활용한 드롭아웃 정규화 구현
____드롭아웃 정규화 실험
____복잡성과 시간
____MNIST 요약
__언어 처리
____감정 분석
__인터넷 영화 리뷰 데이터 세트
____데이터 세트 로딩
____셰이프 및 타입 확인
__단일 학습 인스턴스 확인
____리뷰 디코딩
____데이터 준비
__원핫 인코딩
__특징 벡터화
__라벨 벡터화
__네트워크 구축
____모델 컴파일
____모델 피팅
____검증 데이터
__콜백
____조기 중단 콜백과 히스토리 콜백
____모니터링 지표 선택
__모델 예측 접근
__예측 조사
____IMDB 요약
____연속된 변수 예측
____보스턴 주택 가격 데이터 세트
____데이터 로딩
____데이터 탐색
__특징별 표준화
____모델 생성
____모델 컴파일
____훈련 및 테스트 오차 플로팅
____k-폴드 검증을 활용한 접근 방식 검증
__사이킷-런 API를 활용한 교차 검증
__요약
__연습 문제

2부. 고급 뉴럴 네트워크 구조

4장. 컨볼루션 뉴럴 네트워크
__CNN
__시각의 탄생
__생리학적 시각 이해
__공간 불변성
__뉴런의 수용 필드
__뉴런 계층 구현
__근대 CNN의 탄생
__CNN 설계
____덴스 레이어와 컨볼루셔널 레이어
__컨볼루션 오퍼레이션
____이미지의 공간 구조 보존
____수용 필드
____필터를 활용한 특징 추출
____CNN에서의 오차 역전파
____여러 필터 사용
____스트라이드
____특징이란?
__필터를 활용한 특징 추출 시각화
__복잡한 필터
__컨볼루션 오퍼레이션 요약
__풀링 레이어 이해
____풀링 오퍼레이션의 종류
__케라스를 활용한 CNN 구현
____데이터 확인
____데이터 셰이프 확인
____데이터 표준화
____임포트
__컨볼루셔널 레이어
____필터 수와 크기 정의
____입력 텐서 패딩
____맥스 풀링 레이어
__덴스 레이어를 활용한 분류
__모델 요약
____모델 컴파일
__모델 정확성 확인
__미소 식별 과정의 문제
____블랙박스 내부
____뉴럴 네트워크의 실패
____ConvNet 학습 시각화
____중간 레이어의 뉴럴 활성화 맵 시각화
____입력 이미지 예측
__케라스의 기능적 API
__레이어 채널수 확인
____활성화 맵 시각화
__돌출
__ResNet50을 사용한 돌출 맵 시각화
__로컬 디렉토리에 저장된 이미지 로딩
__케라스의 시각화 모듈
__레이어 검색
__연습 문제
__경사 가중치 클래스 활성화 매핑
__keras-vis를 활용한 클래스 활성화 시각화
__미리 훈련된 모델 활용
__출력 클래스별 최대 활성 값 시각화
__모델 수렴
__여러 필터 인덱스를 활용한 몽환적 분위기 연출
__CNN의 문제점
__뉴럴 네트워크의 환각
__요약

5장. 순환 뉴럴 네트워크
__시퀀스 모델링
__RNN을 사용한 순차 모델링
____전략 선택
____기본 RNN 아키텍처
__다양한 종류의 순차 프로세싱 태스크
____RNN의 학습
____일반적인 RNN 레이어
____피드포워드
__타입 스텝별 활성화 계산
____활성화 방정식 정리
____타임 스텝별 출력 예측
____단방향 정보 흐름의 문제
____장기 의존성 문제
__시간에 따른 역전파
____시간에 따른 역전파 시각화
__경사 폭발 및 소멸
____기울기 레벨에 관한 고려
____클리핑을 활용한 경사 폭발 방지
____메모리를 활용한 경사 소멸 방지
__GRU
____메모리 셀
____업데이트 미수행 시나리오
____업데이트 수행 시나리오
____타임 스텝 사이의 타당성 보존
____타당성 게이트 방정식
__케라스를 활용한 문자 레벨의 언어 모델 구축
____셰익스피어의 햄릿 로딩
____문자 사전 구축
____훈련 시퀀스 준비
____예제 시퀀스 출력
____훈련 데이터 벡터화
__문자 모델링 통계
____문자별 확률 모델링
____임곗값 샘플링
__확률 통제의 목적
____그리디 샘플링
____확률 표본 샘플링
__다양한 RNN 모델 테스팅
____커스텀 콜백을 사용한 텍스트 생성
____다양한 모델 테스팅
__SimpleRNN 구현
____RNN 레이어 스택
__GRU 구현
____양방향 GRU 구현
__실제 데이터의 순차적 처리
____순차적인 데이터 재정렬을 통한 장점
__케라스의 양방향 레이어
____순환 드롭아웃 구현
__출력값 시각화
____무거운 GRU 모델의 출력값 시각화
__요약
__더 읽을거리
__연습 문제

6장. 장단기 기억 네트워크
__복잡한 시퀀스 처리
____메모리 분해
__LSTM 네트워크
__LSTM 해부
____가장 유사한 모델과의 비교
____GRU 메모리
____LSTM 메모리 셀
____활성화 함수와 메모리 별도 처리
__LSTM 메모리 블록
____망각 게이트의 중요성
____차이 개념화
____LSTM 살펴보기
__정보 흐름 시각화
____셀 상태 계산
__경쟁 메모리 계산
__타임 스텝별 활성화 값 계산
__LSTM의 변종 모델과 그 성능
__핍홀 연결 이해
__타이밍과 카운팅의 중요성
____다른 구조적 차이 탐구
__지식 활용
__주식 시장 데이터 모델링
____데이터 임포트
____정렬 및 트렌드 시각화
____데이터프레임을 텐서로 변환
____데이터 분할
____훈련 및 테스팅 인스턴스 플롯
____윈도우 방식 표준화
__데이터 노이즈 제거
__지수 평활법 구현
____곡선 시각화
____한 걸음 앞선 예측 수행
____단순 이동 평균 예측
____지수 이동 평균 예측
__한 걸음 앞선 예측 수행의 문제
__관찰 값 시퀀스 생성
____데이터 셰이프 정리
____임포트
____뉴럴 네트워크 베이스라인
____피드포워드 네트워크 구축
____순환 베이스라인
__LSTM 구현
____LSTM 스택
____헬퍼 함수 활용
____모델 훈련
____결과 시각화
__마무리
__요약
__연습 문제

7장. DQN을 사용한 강화 학습
__보상과 만족
____새로운 학습 평가 방법
__강화학습을 활용한 머신의 조건 형성
____신용도 할당 문제
__탐색 착취 딜레마
__일반적 인공지능지능
__환경 시뮬레이션
____상태, 행동, 보상
__자율 주행 택시
____태스크 이해
____환경 렌더링
____관찰 공간 참조
____행동 공간 참조
____환경과의 상호작용
____무작위로 환경 해결
__즉시 보상과 미래 보상 사이의 트레이드오프
__미래 보상 할인
__마르코프 결정 프로세스
__정책 함수 이해
__상태 가치 평가
__행동 품질 평가
__벨만 방정식 활용
__반복적인 벨만 방정식 업데이트
__뉴럴 네트워크를 사용하는 이유
__Q-학습에서의 정방향 경로 수행
__Q-학습에서의 역방향 경로 수행
____반복적 업데이트를 딥러닝으로 대체
__케라스를 활용한 심층 Q-학습
____임포트
____전처리 기법
____입력 파라미터 정의
____아타리 게임 상태 프로세서 구현
____네트워크 구현
____풀링 레이어 미사용
____실시간 학습의 문제
____재생 메모리에 경험 저장
__탐색과 착취의 균형
____입실론-그리디 탐색 정책
__심층 Q-학습 에이전트 초기화
____모델 훈련
____모델 테스트
____Q-학습 알고리즘 요약
__이중 Q-학습
__경쟁 네트워크 아키텍처
__연습 문제
____Q-학습의 한계
____정책 경사를 활용한 Q-학습 개선
__요약

3부. 뉴하이브리드 모델 아키텍처

8장. 오토인코더
__왜 오토인코더인가?
__자동적인 정보 인코딩
__오토인코더의 한계
__오토인코더 해부
__오토인코더 훈련
__오토인코더 종류
__네트워크 크기와 표현력
__오토인코더에서의 정규화
__희소 오토인코더를 활용한 정규화
____노이즈 제거 오토인코더를 활용한 정규화
____수축적 오토인코더를 활용한 정규화
____케라스를 활용한 얕은 오토인코더 구현
__데이터 확인
____데이터 전처리
____모델 구축
__검증 모델 구현
____별도 인코더 네트워크 정의
____별도 디코더 네트워크 정의
__심층 오토인코더 설계
____임포트
____데이터 이해
____데이터 임포트
__기능적 API를 사용한 오토인코더 설계
____모델 구현
____모델 훈련
____결과 시각화
__심층 컨볼루셔널 오토인코더
__모델 컴파일 및 훈련
__결과 테스트 및 시각화
__노이즈 제거 오토인코더
__노이즈 제거 네트워크 훈련
____결과 시각화
__요약
__연습 문제

9장. 생성적 네트워크
__콘텐트 복제와 생성
__잠재 공간 표상 이해
____컨셉 벡터 식별
__생성적 네트워크 깊이 들여다보기
____통제된 무작위성과 창의성
__무작위성을 활용한 출력 증강
__잠재 공간으로부터의 샘플링
____확률 분포 학습
__생성적 네트워크의 종류
__가변 오토인코더
__케라스를 활용한 VAE 설계
____데이터 로딩과 전처리
__VAE의 인코딩 모듈 구현
____잠재 공간 샘플링
__디코더 모듈 구현
____커스텀 가변 레이어 정의
____모델 컴파일 및 확인
__잠재 공간 시각화
__잠재 공간 샘플링과 출력 생성
____VAE 결론
__생성적 대립쌍 네트워크
____GAN을 활용한 유틸리티 및 실제 응용
__GAN 깊이 살펴보기
____GAN 최적화의 문제점
__케라스를 활용한 GAN 설계
____데이터 준비
____인스턴스 시각화
____데이터 전처리
__생성자 모듈 설계
__판별자 모듈 설계
__GAN 합치기
____훈련용 헬퍼 함수
____출력 표시용 헬퍼 함수
__훈련 함수
____훈련 함수 인자
__판별자 라벨 정의
____GAN 초기화
____배치별 판별자 훈련
__배치별 생성자 훈련
____에폭별 결과 평가
__훈련 세션 실행
____훈련 진행 중 테스트 손실 해석
____에폭별 결과 시각화
__GAN 결론
__요약

4부. 앞으로의 길

10장. 현재와 미래 개발에 관한 고찰
__전이 학습을 활용한 표상 공유
____케라스에서의 전이 학습
____미리 학습된 모델 로딩
____모델의 중간 레이어 획득
____모델에 레이어 추가
____데이터 로딩 및 전처리
____네트워크 훈련
____연습문제
__실험의 결론
__표상 학습
____DNA와 기술
__현재 뉴럴 네트워크의 한계
____기계를 위한 표상 엔지니어링
____전처리 및 데이터 취득
____데이터 평활성
__희소 표상 학습
__하이퍼파라미터 튜닝
__자동 최적화 및 진화 알고리즘
____참고 문헌
__다중 네트워크 예측과 앙상블 모델
__인공지능지능과 뉴럴 네트워크의 미래
____전역 벡터 접근법
____분산된 표상
____하드웨어 문제
__앞으로의 길
__전통적인 컴퓨팅에서의 문제
__양자 컴퓨팅의 등장
____양자 중첩
____큐비트와 전통적인 컴퓨터의 비트
__양자 뉴럴 네트워크
____더 읽을거리
__기술과 사회
__미래에 대한 고찰
__요약

댓글목록0

등록된 댓글이 없습니다.
게시판 전체검색