INNENTÜREN, TUNING DESIGN TÜREN aus Slowenien.


  • Ljubljana


    0038651 - 660 - 406

  • Ptuj


    0038651 - 316 - 130
    0038631 - 688 - 777

rnn tensorflow 예제

rnn tensorflow 예제

이 예제에서 사용할 두 가지 기본 TensorFlow 데이터 구조는 자리 표시자 및 변수입니다. 각 실행시 일괄 처리 데이터는 계산 그래프의 “시작 노드”인 자리 표시자에 공급됩니다. 또한 RNN 상태는 이전 실행의 출력에서 저장되는 자리 표시자에서 제공됩니다. 가장 까다로운 부분은 입력을 올바른 형식과 시퀀스로 공급하는 것입니다. 이 예에서 LSTM은 3개의 정수(예: int의 1×3 벡터)의 시퀀스를 공급합니다. RNN널리 텍스트 분석, 이미지 캡션, 감정 분석 및 기계 번역에 사용됩니다. 예를 들어, 영화 리뷰를 사용하여 영화를 본 후 관중이 느끼는 느낌을 이해할 수 있습니다. 이 작업을 자동화하는 것은 영화 회사가 리뷰를 검토, 레이블 지정, 통합 및 분석할 시간이 충분하지 않은 경우에 매우 유용합니다. 기계는 더 높은 수준의 정확도로 작업을 수행 할 수 있습니다. 특히 좋은 예는 텍스트 시퀀스를 예측하는 것입니다. “한 소녀가 술집에 들어갔는데,`술을 마실 수 있을까?` 하고 물었습니다.

바텐더는 `확실히 {}”라고 말했다. 예를 들어 위의 문자열에서 {} 기호를 채울 수 있는 옵션(예: “miss”, “ma`am” 등)에 대한 많은 옵션이 있습니다. 그러나 다른 단어는 “선생님”, “미스터”등과 같은 에도 맞을 수 있습니다. 명사에 대한 올바른 성별을 얻기 위해 신경망은 가능성이 있는 성별(예: “소녀”와 “그녀”)을 지정하는 두 개의 이전 단어가 사용되었다는 것을 “기억”해야 합니다. 반복 신경망에서 시간(또는 시퀀스)을 통한 이러한 유형의 정보 흐름은 시퀀스를 해제하는 아래 다이어그램에 나와 있습니다: 구현하기가 그리 어렵지 않지만 함수 sequence_loss_by_example가 이미 사용 가능하므로 여기에 그것을 사용합니다. 아래에 설명될 예제 코드에서는 텍스트 예측을 수행할 예정입니다. Word2Vec 알고리즘의 이전 자습서에서 설명한 것처럼 단어는 의미 있는 단어 벡터를 사용하여 신경망에 입력됩니다. 이 벡터는 단어의 의미의 일부 측면을 캡처하는 방식으로 인코딩됩니다 (의미는 일반적으로 단어가 일반적으로 발견되는 컨텍스트로 해석됩니다). 따라서 아래의 LSTM 네트워크에 입력된 각 단어는 650 길이 벡터가 됩니다.