[NLP] BERT 간단 설명 | Bi-Directional LM | 양방향 언어 모델
·
🏛 Research/NLP & LLM
BERT(Bidirectional Encoder Representations from Transformers) BERT는 자연어 처리 (NLP) 분야에서 혁신적인 모델 중 하나로, 구글이 개발해 2018년에 공개되었다. BERT는 이전의 NLP 모델보다 더 탁월한 성능을 제공하여 다양한 자연어 처리 작업에서 상위 성과를 이루어 냈다. 이 모델은 특히 사전 훈련된 언어 모델을 사용하여 다른 NLP 작업에 적용할 수 있는 다목적 모델로 주목받았다. 논문 제목은 아래와 같으며 피인용수는 약 8만회(23년 9월 기준)로 이제는 LM 분야에서 정말 기본이 되는 연구라고 할 수 있다. paper : BERT: Pre-training of Deep Bidirectional Transformers for Languag..
[오픈 소스] BERT를 이용한 한국어 개체명 인식 | NER (Named Entity Recognition)
·
🏛 Research/NLP & LLM
NER(Named Entity Recognition) Named Entity Recognition (NER)은 자연어 처리 기술 중 하나로, 문장 내에서 특정한 유형의 명칭(개체)을 인식하는 작업이다. 예를 들어, "Steve Jobs는 Apple의 창업자입니다" 라는 문장이 있다면, "Steve Jobs"는 인물(person), "Apple"은 조직(organization)이라는 유형의 개체로 인식된다. 이외에도 장소, 시간 등 다양한 개체를 인식할 수 있다. 이러한 NER은 정보 추출, 질의 응답, 리뷰 분석, 기계번역 등 다양한 곳에서 활용될 수 있다. 전혀 생각하지 못했던 활용처는 기계번역 분야이다. 영어를 한국어로 번역할 때 기업을 지칭하는 "Apple"은 "사과"가 아닌 "애플"로 번역해야 ..