meta données pour cette page
Installer une Intelligence Artificielle
https://huggingface.co/meta-llama/Llama-3.2-3B/tree/main
0. Choisir son IA :
Cliquez pour afficher ⇲
Cliquez pour masquer ⇱
Pour une machine avec des ressources limitées (2 petites CPU et 6 Go de RAM) sous Debian 12, voici quelques options d'IA open source qui pourraient convenir :
TensorFlow Lite : Cette version allégée de TensorFlow est conçue pour les appareils à ressources limitées. Elle permet d'exécuter des modèles d'IA pré-entraînés avec une empreinte mémoire réduite1. Scikit-learn : Cette bibliothèque Python est idéale pour le machine learning sur des systèmes moins puissants. Elle offre de nombreux algorithmes pour la classification, la régression et le clustering1. Keras : Cette interface de haut niveau pour les réseaux neuronaux est connue pour sa simplicité d'utilisation. Elle peut fonctionner avec des ressources limitées, surtout si vous l'utilisez pour l'inférence plutôt que pour l'entraînement3. Apache MXNet : Ce framework est optimisé pour l'efficacité et les performances, ce qui le rend adapté aux systèmes avec des ressources limitées3.
1. Installer l'IA :
Cliquez pour afficher ⇲
Cliquez pour masquer ⇱
Voici une procédure pour configurer LLaMA 3.2 afin qu'il apprenne la nuit avec une charge CPU de 60% et s'arrête entre 8h et 1h du matin pour vos questions :
1. Installez Ollama et téléchargez le modèle LLaMA 3.2 : ```bash curl -fsSL https://ollama.com/install.sh | sh ollama pull llama3.2 ```
2. Créez un script pour l'apprentissage nocturne (nommé `llama_night_learning.sh`) : ```bash #!/bin/bash ollama run llama3.2 “Apprends de nouvelles informations sur [votre sujet]” –cpu-usage 60 ```
3. Créez un script pour arrêter l'apprentissage (nommé `stop_learning.sh`) : ```bash #!/bin/bash pkill -f “ollama run llama3.2” ```
4. Configurez les tâches cron pour l'automatisation : ```bash crontab -e ``` Ajoutez ces lignes : ``` 0 1 * * * /chemin/vers/llama_night_learning.sh 0 8 * * * /chemin/vers/stop_learning.sh ```
5. Pour interagir avec le modèle pendant la journée, utilisez : ```bash ollama run llama3.2 “Votre question ici” ```
Cette configuration permet à LLaMA 3.2 d'apprendre la nuit avec une charge CPU limitée à 60% et s'arrête entre 8h et 1h du matin pour vos interactions[1][4]. Notez que l'apprentissage continu peut nécessiter une gestion supplémentaire des données et des ressources.
Citations: [1] https://iartificial.blog/fr/desarrollo/como-ejecutar-llama-3-2-localmente-con-ollama/ [2] https://www.youtube.com/watch?v=YtOta0D8-2c [3] https://huggingface.co/meta-llama/Llama-3.2-3B-Instruct [4] https://www.hostinger.fr/tutoriels/tutoriel-ollama-cli [5] https://www.datacamp.com/fr/blog/llama-3-2 [6] https://www.datacamp.com/fr/tutorial/fine-tuning-llama-3-2-vision [7] https://www.yeschat.ai/fr/features/llama-3 [8] https://learn.microsoft.com/fr-fr/azure/machine-learning/how-to-deploy-models-llama?view=azureml-api-2
1.b Via pip, pas recommandé :
Cliquez pour afficher ⇲
Cliquez pour masquer ⇱
Voici une procédure pour installer une IA open-source sur votre machine Debian 12 avec des ressources limitées :
1. Mettez à jour votre système Debian 12 : ```bash sudo apt update && sudo apt upgrade -y ```
2. Installez les dépendances nécessaires : ```bash sudo apt install python3 python3-pip git ```
3. Installez LLM, un outil en ligne de commande pour exécuter des modèles de langage localement[6] : ```bash pip install llm ```
4. Téléchargez un modèle léger adapté à votre configuration. Le modèle LLaMa 3B est recommandé pour 6 Go de RAM[6] : ```bash llm download llama-2-3b ```
5. Lancez le modèle : ```bash llm chat llama-2-3b ```
Cette configuration permettra d'exécuter une IA open-source localement sur votre machine Debian 12 avec des ressources limitées. Le modèle 3B devrait fonctionner avec 6 Go de RAM[6]. La connexion Internet en fibre de 50 Mo/s sera suffisante pour télécharger le modèle, mais n'affectera pas les performances une fois installé. Notez que les performances peuvent être limitées en raison des ressources système restreintes[4][6].
Citations: [1] https://shape.host/resources/comment-installer-tensorflow-sur-debian-12 [2] https://www.it-connect.fr/installation-pas-a-pas-de-glpi-10-sur-debian-12/ [3] https://passandsecure.fr/articles/Administration_Systeme/Linux/Debian/install_debian_12/install_debian_12.pdf [4] https://signal.eu.org/blog/2023/04/11/faire-tourner-une-intelligence-artificielle-sur-un-ordinateur-personnel/ [5] https://mcflypartages.fr/blog/linux_debian_12_installation/ [6] https://www.lemondeinformatique.fr/actualites/lire-5-moyens-faciles-pour-executer-des-llm-localement-91502.html [7] https://goopensource.fr/debian-12-installation-sans-interface-graphique/ [8] https://nicolasforcet.com/installer-ia-en-local-pc-llm-open-source/ [9] https://sangomakb.atlassian.net/wiki/spaces/FP/pages/295403538/Step+By+Step+Debian+12+Installation
2. Installer une interface pour lui écrire :
Cliquez pour afficher ⇲
Cliquez pour masquer ⇱
Voici une procédure pour configurer votre machine Debian 12 afin de discuter avec l'IA depuis votre navigateur via nginx et le domaine ia.autarcie.org :
1. Installez nginx s'il n'est pas déjà présent : ```bash sudo apt update sudo apt install nginx -y ```
2. Créez un nouveau fichier de configuration pour votre site : ```bash sudo nano /etc/nginx/sites-available/ia.autarcie.org ```
3. Ajoutez la configuration suivante dans le fichier : ```nginx server {
listen 80; server_name ia.autarcie.org; root /var/www/ia.autarcie.org; index index.html;
location / { proxy_pass http://localhost:3000; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; }
} ```
4. Créez un lien symbolique pour activer le site : ```bash sudo ln -s /etc/nginx/sites-available/ia.autarcie.org /etc/nginx/sites-enabled/ ```
5. Testez la configuration nginx et redémarrez le service : ```bash sudo nginx -t sudo systemctl restart nginx ```
6. Installez Node.js et npm pour exécuter l'interface web de l'IA : ```bash sudo apt install nodejs npm ```
7. Clonez le dépôt Ollama LLM UI et installez les dépendances : ```bash git clone https://github.com/ollama-ui/ollama-ui.git cd ollama-ui npm install ```
8. Configurez l'application pour écouter sur localhost : ```bash nano .env ``` Ajoutez la ligne suivante : ``` HOST=localhost ```
9. Démarrez l'application : ```bash npm run dev ```
10. Configurez le pare-feu pour autoriser le trafic HTTP : ```bash sudo ufw allow 80/tcp sudo ufw reload ```
Assurez-vous que votre domaine ia.autarcie.org pointe vers l'adresse IP de votre machine Debian 12. Une fois ces étapes terminées, vous devriez pouvoir accéder à l'interface de l'IA via votre navigateur en visitant http://ia.autarcie.org[1][3][6][8][9].
Citations: [1] https://tutos-info.fr/wp-content/uploads/2023/07/TUTORIEL-DEBIAN-12-INSTALLER-ET-UTILISER-DEBIAN-12.pdf [2] https://docs.vultr.com/how-to-install-nginx-webserver-on-debian-12 [3] https://shape.host/resources/comment-configurer-le-reseau-sur-debian-12 [4] https://greenwebpage.com/community/how-to-install-nginx-on-debian-12/ [5] https://wiki.debian.org/fr/NetworkConfiguration [6] https://linuxcapable.com/how-to-install-nginx-on-debian-linux/ [7] https://www.linuxtricks.fr/wiki/ia-une-web-interface-a-ollama-avec-ollama-llm-ui-projet-en-dev [8] https://www.server-world.info/en/note?os=Debian_12&p=nginx&f=10 [9] https://www.simcentric.com/hong-kong-dedicated-server/how-to-install-nginx-on-debian-12/