티스토리 뷰
반응형
Llama 대신 GEMMA 9b를 쓰니 정확도가 늘어났다.
원래 0.5666->0.6243으로 향상
거기에 ensemble retriever를 적용했을 때 0.6545 으로 증가
거기에 kiwi retriever를 적용햇을 때 0.6568로 증가했다.
아마 여기까지가 일반적인 LLM이나 retriever 방법론의 끝일듯 싶고, 이 다음부터는 파인튜닝이나 multi query, self-query 같은 기법이 작용해야 할 것 같다.
아니면 RAPTOR 같은 기법을 적용하던가.
어쨌든 간에 리더보드 스코어가 20위 권 안에 들어간 건 좋은 일이다.
현재 0.67이 10위권이니, 정말 잘 한다면 10위권도 노려볼 수 있음직 하다.
0.7까지만 향상시키면 실전에서도 꽤나 좋게 쓸 수 있다는 증거도 된다.
그렇기에 다시 달려야겠다.
반응형