Este artigo está disponível no arxiv sob licença CC 4.0.
Autores:
(1) D.Sinclair, Imense Ltd, e e-mail: [email protected];
(2) WTPye, Warwick University e e-mail: [email protected].
Os autores reconhecem a extraordinária generosidade da Meta em liberar pesos de modelo de maneira razoável para sua série LlaMa2 de modelos de linguagem grande pré-treinados.
[1] IA aberta. Relatório técnico do Chatgpt-4. 2023. URL https://arxiv.org/pdf/2303.08774.pdf.
[2] Meta GenAI, Thomas Scialom e Hugo Touvron. Llama 2: Base aberta e modelos de chat ajustados. 2023. URL https://arxiv.org/pdf/2307.09288.pdf.
[3] Rosalind W. Picard. Computação afetiva. Imprensa do MIT, 1997.
[4] J Estrabismo. A religião jedi: o amor é a força? Amazon Kindle, 2013.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser e Illia Polosukhin. Atenção é tudo que você precisa. CoRR, abs/1706.03762, 2017. URL http://arxiv.org/abs/1706.03762.
[6] Wenxuan Zhang, Yue Deng, Bing Liu, Sinno Jialin Pan e Lidong Bing. Análise de sentimento na era dos grandes modelos de linguagem: uma verificação da realidade, 2023.