The Two Sides of the Coin : Hallucination Generation and Detection with LLMs as Evaluators for LLMs
In: CLEF 2024 : Working Notes of the Conference and Labs of the Evaluation Forum / Faggioli, Guglielmo; Ferro, Nicola; Galuščáková, Petra; García Seco de Herrera, Alba (Hrsg.). - CLEF 2024, Conference and Labs of the Evaluation Forum; Grenoble, France; 09.09-12.09.2024 - In: CEUR Workshop Proceedings - CEUR-WS, Band 3740, S. 727 - 758
2024Aufsatz (Konferenz) in TagungsbandOA Gold
Fakultät für Informations- und Kommunikationswissenschaften » Institut für InformationswissenschaftFakultät für Informatik und Ingenieurwissenschaften » Institut für Data Science, Engineering, and Analytics
Titel in Englisch:
The Two Sides of the Coin : Hallucination Generation and Detection with LLMs as Evaluators for LLMs
Autor*in:
Bui, Anh Thu Maria
- SCOPUS
- 59253227800
- Sonstiges
- korrespondierende*r Autor*in
- SCOPUS
- 57232029600
- Sonstiges
- korrespondierende*r Autor*in
- SCOPUS
- 59253046300
- Sonstiges
- korrespondierende*r Autor*in
- SCOPUS
- 59253046400
- Sonstiges
- korrespondierende*r Autor*in
- SCOPUS
- 59253494000
- Sonstiges
- korrespondierende*r Autor*in
- DHSB-ID
- THK0002110
- ORCID
-
0000-0002-1765-2449
- SCOPUS
- 57210368795
- Sonstiges
- der TH Köln zugeordnete Person
korrespondierende*r Autor*in
- DHSB-ID
- THK0048082
- SCOPUS
- 57188957425
- SCOPUS
- 57219734508
- SCOPUS
- 58361418600
- Sonstiges
- der TH Köln zugeordnete Person
korrespondierende*r Autor*in
- DHSB-ID
- THK0002510
- ORCID
-
0000-0002-8817-4632
- SCOPUS
- 35758004800
- Sonstiges
- der TH Köln zugeordnete Person
korrespondierende*r Autor*in
Erscheinungsjahr:
2024
OA-Publikationsweg:
OA Gold
Scopus ID
Sprache des Textes:
Englisch
Schlagwort, Thema:
Ensemble Majority Voting ; Gemma ; GPT-3.5 Turbo ; GPT-4 ; Hallucination Detection ; Hallucination Generation ; Llama 3 ; LLMs as Evaluators
Ressourcentyp:
Text
Access Rights:
Open Access
Praxispartner*in:
Nein
Kategorie:
Forschung
Teil der Statistik:
Teil der Statistik
Abstract in Englisch:
Hallucination detection in Large Language Models (LLMs) is crucial for ensuring their reliability. This work presents our participation in the CLEF ELOQUENT HalluciGen shared task, where the goal is to develop evaluators for both generating and detecting hallucinated content. We explored the capabilities of four LLMs: Llama 3, Gemma, GPT-3.5 Turbo, and GPT-4, for this purpose. We also employed ensemble majority voting to incorporate all four models for the detection task. The results provide valuable insights into the strengths and weaknesses of these LLMs in handling hallucination generation and detection tasks.