데이터에 대해 사전 훈련 된 BERT 모델을 훈련합니다. 두 개의 목록을 포함하는 Json을 만들려고합니다. 첫째 : 목록이 모델 (욕망 값)에 대한 예측을 결론 내립니다 . 둘째 : 참값 목록
하지만 첫 번째 목록에는 다음과 같은 [ 'UNK'] 토큰 이 많이 있습니다. 왜 이런 일이 발생합니까? 어떻게 해결할 수 있습니까?
이 UNK 태그는 예측 결과를 0에 가깝게 만듭니다. (정확도 비율은 진실 과 욕망 의 정확한 일치 를 기반으로 하고이 UNK는 욕구를 다르게 만듭니다 ...
그것을 위해 무엇을 할 수 있습니까?
궁극적으로 문제를 발견했습니다. 제가 사용한 Bert 버전은 페르시아어에 적용되었으며 페르시아 정규화 프로세스를 완전히 통과하지 못했습니다.) 해당 단계를 완료하고 Bert 구성으로 디버깅 한 후 해결되었습니다.
이 기사는 인터넷에서 수집됩니다. 재 인쇄 할 때 출처를 알려주십시오.
침해가 발생한 경우 연락 주시기 바랍니다[email protected] 삭제
QR 코드를 생성하려면 클릭
몇 마디 만하겠습니다