Dieses Dokument ist auf Arxiv unter der CC 4.0-Lizenz verfügbar.
Autoren:
(1) D.Sinclair, Imense Ltd, und E-Mail: [email protected];
(2) WTPye, Warwick University, und E-Mail: [email protected].
Die Autoren würdigen die außerordentliche Großzügigkeit von Meta bei der Veröffentlichung von Modellgewichten in sinnvoller Weise für ihre LlaMa2-Reihe vortrainierter Large Language Models.
[1] Open AI. Technischer Bericht zu Chatgpt-4. 2023. URL https://arxiv.org/pdf/2303.08774.pdf.
[2] Meta GenAI, Thomas Scialom und Hugo Touvron. Llama 2: Offene Grundlage und fein abgestimmte Chatmodelle. 2023. URL https://arxiv.org/pdf/2307.09288.pdf.
[3] Rosalind W. Picard. Affective computing. MIT Press, 1997.
[4] J Strabismus. Die Jedi-Religion: Ist Liebe die Macht? Amazon Kindle, 2013.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser und Illia Polosukhin. Aufmerksamkeit ist alles, was Sie brauchen. CoRR, abs/1706.03762, 2017. URL http://arxiv.org/abs/1706.03762.
[6] Wenxuan Zhang, Yue Deng, Bing Liu, Sinno Jialin Pan und Lidong Bing. Sentimentanalyse im Zeitalter großer Sprachmodelle: Ein Realitätscheck, 2023.