LLM: различия между версиями
Перейти к навигации
Перейти к поиску
(не показаны 3 промежуточные версии 2 участников) | |||
Строка 1: | Строка 1: | ||
В данном документе скоплены ссылки на познавательные материалы по теме LLM | В данном документе скоплены ссылки на познавательные материалы по теме LLM | ||
+ | = Теория = | ||
+ | # (2023-12-15) Лена Войта - языковое моделирование: https://lena-voita.github.io/nlp_course/language_modeling.html | ||
+ | # (2024-01-30) Как работают трансформеры: https://habr.com/ru/articles/785474/ | ||
= Промпты = | = Промпты = | ||
Строка 11: | Строка 14: | ||
# (2023-12-26) https://habr.com/ru/companies/wunderfund/articles/779748/ | # (2023-12-26) https://habr.com/ru/companies/wunderfund/articles/779748/ | ||
# (2024-01-19) что-то с юр примерами: https://habr.com/ru/articles/786992/ | # (2024-01-19) что-то с юр примерами: https://habr.com/ru/articles/786992/ | ||
− | # (2024-01-26) дообучение SAIGA2_7b: https://habr.com/ru/articles/776872/ (ВНИМАНИЕ! использовать llama-cpp (и репозитарий и | + | # (2024-01-26) дообучение SAIGA2_7b: https://habr.com/ru/articles/776872/ (ВНИМАНИЕ! использовать llama-cpp (и репозитарий и библиотеку) за конец ноября 2023) |
− | # (2024-01-30) дообучение LLAMA2: https://www.datacamp.com/tutorial/fine-tuning-llama-2 | + | # (2024-01-30) дообучение LLAMA2: https://www.datacamp.com/tutorial/fine-tuning-llama-2 (ВНИМАНИЕ! эта ссылка еще рабочая?) |
= Остальное = | = Остальное = | ||
− | |||
# (2023-12-15) агенты: https://habr.com/ru/companies/ods/articles/776478/ | # (2023-12-15) агенты: https://habr.com/ru/companies/ods/articles/776478/ | ||
# (2023-12-15) локальные запуски и тесты: https://habr.com/ru/articles/780092/ | # (2023-12-15) локальные запуски и тесты: https://habr.com/ru/articles/780092/ |
Текущая версия на 22:26, 31 января 2024
В данном документе скоплены ссылки на познавательные материалы по теме LLM
Содержание
Теория
- (2023-12-15) Лена Войта - языковое моделирование: https://lena-voita.github.io/nlp_course/language_modeling.html
- (2024-01-30) Как работают трансформеры: https://habr.com/ru/articles/785474/
Промпты
- (2023-12-15) https://learnprompting.org/
- (2023-12-15) https://www.promptingguide.ai/ru
РАГ / FT / подключение документов / дообучение
- (2023-12-15) сайга и РАГ: https://habr.com/ru/articles/769124/
- (2023-12-15) https://habr.com/ru/companies/wunderfund/articles/779748/
- (2023-12-15) поиск по документам: https://habr.com/ru/articles/778170/
- (2023-12-26) https://habr.com/ru/companies/wunderfund/articles/779748/
- (2024-01-19) что-то с юр примерами: https://habr.com/ru/articles/786992/
- (2024-01-26) дообучение SAIGA2_7b: https://habr.com/ru/articles/776872/ (ВНИМАНИЕ! использовать llama-cpp (и репозитарий и библиотеку) за конец ноября 2023)
- (2024-01-30) дообучение LLAMA2: https://www.datacamp.com/tutorial/fine-tuning-llama-2 (ВНИМАНИЕ! эта ссылка еще рабочая?)
Остальное
- (2023-12-15) агенты: https://habr.com/ru/companies/ods/articles/776478/
- (2023-12-15) локальные запуски и тесты: https://habr.com/ru/articles/780092/
- (2024-01-18) GPT Store - как создать свой custom GPT с внешними API вызовами: https://habr.com/ru/articles/786242/
Списки
- (2023-12-15) лидерборд HF: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
- (2023-12-15) лидерборд HF: https://huggingface.co/spaces/bigcode/bigcode-models-leaderboard
- (2023-12-15) для сравнения!: https://llm.extractum.io/
Скачивание
- (2023-12-15) Разное: https://huggingface.co/TheBloke
- (2023-12-26) DeepSeek: https://github.com/deepseek-ai/deepseek-LLM
- (2023-12-26) Saiga/Gusev: https://huggingface.co/collections/IlyaGusev/saiga2-saigamistral-6505d4ccc3d1e53166b636cd