오월의 아이들아 또는 파이썬 텍스트 마이닝 바이블 2 > NEW도서

본문 바로가기

NEW도서

오월의 아이들아 또는 파이썬 텍스트 마이닝 바이블 2

시니
2024-02-02 11:31 565 0

본문




오월의 아이들아
9791190168755.jpg


도서명 : 오월의 아이들아
저자/출판사 : 박순옥,저자,글,, 개미
쪽수 : 160쪽
출판일 : 2023-12-07
ISBN : 9791190168755
정가 : 15000

들어가는 말

1 부르심
시 고향
나의 아담

2 구원의 길이 열리다
시 오월의 아이들아

3 보내심
시 미안한 마음

4 기도의 기적
시 난 이런 사람이 되고 싶다

5 제자양육
시 더 늦기 전에

6 복음으로 인한 고난
시 깎인 잔디
밤에 일하시는 하나님

7 또 다른 도전
시 동행

8 어리석음
시 껍질 깨기

9 아찔한 순간
시 나목

10 정년을 앞두고
시 난 2등이 좋습니다
가을 날씨 - 손녀 조유정

11 정년 이후
시 감사해 나의 인생아




파이썬 텍스트 마이닝 바이블 2
9791158394714.jpg


도서명 : 파이썬 텍스트 마이닝 바이블 2
저자/출판사 : 이상엽,저자,글,, 위키북스
쪽수 : 464쪽
출판일 : 2023-11-09
ISBN : 9791158394714
정가 : 28000

[3부] 딥러닝을 이용한 텍스트 분석

▣ 13장: 딥러닝 소개
13.1 신경망
___13.1.1 신경망 소개
___13.1.2 신경망의 작동 원리
13.2 활성화 함수
___13.2.1 시그모이드 함수
___13.2.2 하이퍼볼릭 탄젠트 함수
___13.2.3 ReLU 함수
___13.2.4 Leaky ReLU 함수
___13.2.5 ELU 함수
___13.2.6 소프트플러스 함수
___13.2.7 GELU 함수
13.3 경사하강법
___13.3.1 사용되는 관측치의 수에 따른 경사하강법 구분
___13.3.2 신경망에서의 경사하강법 작동 원리
___13.3.3 오차 역전파
___13.3.4 경사 소실 문제
___13.3.5 경사 폭발 문제
___13.3.6 옵티마이저의 종류
___13.3.7 가중치 감쇠와 학습률 감쇠
13.4 가중치 초기화
___13.4.1 Xavier 초기화 방법
___13.4.2 He 초기화 방법
13.5 예제: 도시의 평균 집값 예측하기
___13.5.1 SGD 옵티마이저의 사용 예
___13.5.2 RMSprop 옵티마이저 사용의 예
___13.5.3 Adam 옵티마이저의 사용 예
13.6 신경망에서의 과적합 해결 방법
___13.6.1 L1/L2 규제화
___13.6.2 드롭아웃
___13.6.3 조기 종료
___13.6.4 배치 정규화
___13.6.5 계층 정규화

▣ 14장: FNN을 이용한 텍스트 분석과 단어 및 문서 임베딩
14.1 FNN을 이용한 텍스트 분석
14.2 단어 임베딩
___14.2.1 원-핫 벡터와 단어 임베딩
___14.2.2 Word2vec
___14.2.3 FastText
14.3 문서 임베딩
___14.3.1 Doc2vec

▣ 15장: CNN을 이용한 텍스트 분석
15.1 CNN
___15.1.1 CNN 소개
___15.1.2 파이썬 코딩하기
15.2 CNN을 이용한 텍스트 분석
___15.2.1 CNN에서의 문서 표현
___15.2.2 파이썬 코딩하기

▣ 16장: 순환신경망 기반 알고리즘을 이용한 텍스트 분석
16.1 RNN
___16.1.1 RNN 소개
___16.1.2 RNN을 이용한 감성분석
___16.1.3 각 단어의 은닉 상태 벡터를 모두 사용하기
___16.1.4 여러 개의 RNN 층 사용하기
16.2 LSTM
___16.2.1 LSTM 소개
___16.2.2 LSTM을 이용한 감성분석
___16.2.3 양방향 LSTM
___16.2.4 양방향 LSTM을 사용한 감성분석
16.3 seq2seq

▣ 17장: 트랜스포머
17.1 어텐션 알고리즘
17.2 셀프 어텐션
17.3 트랜스포머에서의 어텐션
17.4 트랜스포머 소개
___17.4.1 트랜스포머의 구조
___17.4.2 인코더 부분
___17.4.3 디코더 부분
___17.4.4 트랜스포머의 인코더 블록을 이용한 감성분석

▣ 18장: BERT
18.1 BERT의 구조
___18.1.1 BERT 내부 구조
___18.1.2 BERT 학습
___18.1.3 BERT 논문에서 사용된 다운스트림 작업
___18.1.4 BERT를 이용한 각 단어의 벡터 추출하기
18.2 파이썬 코딩하기
___18.2.1 BERT를 사용한 단어와 문장/문서의 벡터 추출하기
___18.2.2 영어 텍스트 감성분석
___18.2.3 한글 텍스트 감성분석

▣ 19장: BERT 기반 방법들
19.1 ALBERT
___19.1.1 ALBERT 소개
___19.1.2 파이썬 코딩하기
19.2 RoBERTa
___19.2.1 RoBERTa 소개
___19.2.2 파이썬 코딩하기
19.3 ELECTRA
___19.3.1 ELECTRA 소개
___19.3.2 파이썬 코딩하기
19.4 지식 증류 기반 방법들
___19.4.1 지식 증류
___19.4.2 DistilBERT
___19.4.3 TinyBERT
19.5 BERTopic
___19.5.1 문서 임베딩
___19.5.2 문서 군집화
___19.5.3 각 군집(토픽)을 나타내는 단어 찾기
___19.5.4 파이썬 코딩하기

▣ 20장: GPT 모형들
20.1 GPT-1
___20.1.1 GPT-1에서의 학습
20.2 GPT-2
___20.2.1 학습 데이터
___20.2.2 모형의 구조
___20.2.3 모형의 성능
___20.2.4 파이썬 코딩하기
20.3 GPT-3
___20.3.1 제로샷, 원샷, 퓨샷
___20.3.2 학습 데이터
___20.3.3 모형의 구조
___20.3.4 모형의 성능
___20.3.5 GPT-3 미세조정하기
20.4 InstructGPT
___20.4.1 InstructGPT에서의 미세 조정
___20.4.2 모형의 성능
20.5 ChatGPT

▣ 21장: 비전 트랜스포머를 이용한 텍스트 분석
21.1 ViT 소개
21.2 ViT를 이용한 이미지 분류
21.3 ViT를 이용한 텍스트 분류
___21.3.1 방법 1: N×D 문서에서 직접 패치를 추출
___21.3.2 방법 2: 문서를 패치로 분할하기 전에 Conv1D 필터 적용하기
___21.3.3 방법 3: N×C 결과물에서 C×C 패치 추출하기

▣ 22장: 오토인코더를 이용한 텍스트 분석
22.1 오토인코더 소개
22.2 오토인코더를 MNIST 데이터에 적용해 보기
22.3 오토인코더를 이용해 문서를 저차원 벡터로 표현하기
___22.3.1 LSTM 기반 오토인코더 사용해 보기
___22.3.2 CNN 기반 오토인코더 사용해 보기

▣ 부록A: 경사하강법에서의 순전파와 역전파
A.1 예제 신경망 모형
A.2 순전파
A.3 역전파

댓글목록0

등록된 댓글이 없습니다.
게시판 전체검색