¡Explorando la IA de Facebook! Cómo instalar y utilizar Llama.cpp y Alpaca.cpp

preview_player
Показать описание


Para ejecutar un modelo personalizzado puedes editar el binario /etc/bin/llama y modificar la ubicación del modelo vicuna por el que desees usar.
O de lo contrario solo quieres hacer una consulta, puedes usar este argumento:
Рекомендации по теме
Комментарии
Автор

Excelente video, es complicado encontrar contenido en español, tengo 8gb y in i3 y puedo correr los de 7b, vicuna es muy bueno, entiende español pero mucho mejor en ingles, espero que algún día lo entrenen con el dataset de instruct en español

hwpoison
Автор

Intente correr la versin binaria para windows pero no jaló, el bot no hace nada.

joseyovanygalindodiaz
Автор

Hola amigo, tengo solo una pregunta, que hardware es necesariobpara correrlo en local.

Una vez intente correrlo en local con CPU y funciono pero no se si sera factible con GPU ya que mi GPU tiene 4gb de vram. Anteriormente tambien lo intente con GPU pero me daba error por falta de memoria aun que no prove usar los criterios de lowvram o medvram en el archivo webui ya que lo intente usando la interfaz grafica de un repo en github y no querio volverlo a intentar por que el descargar todo son 30gb.

Y menciono esto por que al correrlo en CPU va muy lento, la desventaja de ser pobre.

sysjju
Автор

y como se usa para proyectos de python??
no para usarlo en cmd sino en un editor de codigo

jodter
Автор

La voz de ia se nota jaja, buen video igual

iJosiasCastro
Автор

q comando pegar para bajar no se entinede

canaldealberto