More

    Créez votre assistant de codage IA dans JupyterLab

    France

    Dans cet article, nous allons découvrir comment créer un assistant de codage IA local dans JupyterLab. Grâce à l’extension Jupyter AI, il est possible d’intégrer des capacités d’IA générative directement dans l’interface. Posséder un assistant IA local garantit la confidentialité, réduit la latence et offre une fonctionnalité hors ligne, ce qui en fait un outil puissant pour les développeurs.

    Qu’est-ce que Jupyter AI ?

    Comme son nom l’indique, Jupyter AI est une extension de JupyterLab dédiée à l’IA générative. Cet outil transforme vos notebooks Jupyter standards ou votre environnement JupyterLab en un terrain de jeu pour l’IA générative. Il fonctionne également sans problème dans des environnements comme Google Colaboratory et Visual Studio Code. Cette extension facilite l’accès à divers fournisseurs de modèles, qu’ils soient open source ou propriétaires, directement au sein de votre environnement Jupyter.

    Installation et configuration

    Diagramme de flux du processus d'installation

    La configuration de l’environnement implique trois composants principaux :

    • JupyterLab
    • Extension Jupyter AI
    • Ollama (pour le service de modèles local)
    • Optionnel : Hugging Face (pour les modèles GGUF)

    1. Installation de l’extension Jupyter AI

    Il est recommandé de créer un nouvel environnement spécifiquement pour Jupyter AI afin de garder votre environnement existant propre et organisé. Jupyter AI nécessite JupyterLab 4.x ou Jupyter Notebook 7+, assurez-vous donc d’avoir la dernière version installée. Vous pouvez installer ou mettre à jour JupyterLab avec pip :

    # Installer JupyterLab 4 avec pip
    pip install jupyterlab~=4.0

    Ensuite, installez l’extension Jupyter AI comme suit :

    pip install "jupyter-ai[all]"

    Ceci est la méthode la plus simple d’installation, car elle inclut toutes les dépendances nécessaires. Si vous rencontrez des erreurs lors de l’installation de Jupyter AI, vous pouvez procéder à une installation manuelle sans le groupe de dépendances optionnelles [all].

    Après l’installation, redémarrez votre instance JupyterLab. Si vous voyez une icône de chat dans la barre latérale gauche, cela signifie que tout a été installé correctement.

    Interface de chat native dans JupyterLab

    Configurer Ollama pour les modèles locaux

    Maintenant que Jupyter AI est installé, il est nécessaire de le configurer avec un modèle. Bien que Jupyter AI s’intègre directement avec les modèles de Hugging Face, certains modèles peuvent ne pas fonctionner correctement. Ollama offre une méthode plus fiable pour charger des modèles localement.

    Ollama est un outil pratique pour exécuter des modèles de langage à grande échelle localement. Il vous permet de télécharger des modèles d’IA préconfigurés depuis sa bibliothèque. Ollama est compatible avec toutes les principales plateformes (macOS, Windows, Linux), choisissez donc la méthode adéquate pour votre système d’exploitation et installez-le depuis le site officiel.

    Utilisation des modèles via Ollama

    Option 1 : Utiliser des modèles préconfigurés

    Ollama fournit une bibliothèque de modèles pré-entraînés que vous pouvez télécharger et exécuter localement. Pour commencer à utiliser un modèle, téléchargez-le avec la commande pull.

    ollama pull qwen2.5-coder:1.5b

    Cela téléchargera le modèle dans votre environnement local. Pour confirmer que le modèle a été téléchargé, exécutez :

    ollama list

    Option 2 : Charger un modèle personnalisé

    Si le modèle dont vous avez besoin n’est pas disponible dans la bibliothèque d’Ollama, vous pouvez charger un modèle personnalisé en créant un Fichier Modèle qui spécifie la source du modèle.

    Option 3 : Exécuter des modèles GGUF directement depuis Hugging Face

    Ollama prend désormais en charge les modèles GGUF directement depuis Hugging Face, y compris les modèles publics et privés. Cela signifie que vous pouvez les utiliser sans nécessiter de fichier Modèle personnalisé.

    Utiliser l’assistant de codage IA

    Une fois configuré, vous pouvez utiliser l’assistant de codage IA pour diverses tâches telles que l’autocomplétion de code, l’aide au débogage et la génération de nouveau code à partir de rien. Vous pouvez interagir avec l’assistant soit via la barre latérale de chat, soit directement dans les cellules de notebook en utilisant des %%ai magic commands.

    Exemple d'assistance au débogage utilisant Jupyter AI via le chat

    Conclusion

    Jupyter AI facilite la mise en place d’un assistant de codage, à condition d’avoir les bonnes installations et configurations. L’utilisation d’un modèle local offre des avantages significatifs : cela améliore la confidentialité, réduit la latence et diminue la dépendance à l’égard des fournisseurs de modèles propriétaires. Cependant, exécuter de grands modèles localement avec Ollama peut être gourmand en ressources, donc assurez-vous d’avoir suffisamment de mémoire RAM.

    Assistant De Codage Ia | Jupyterlab | Ia | Assistant De Codage | Ollama | Hugging Face | France
    source:https://towardsdatascience.com/build-your-own-ai-coding-assistant-in-jupyterlab-with-ollama-and-hugging-face/

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici


    Actualités

    L’acteur de Friends, Matthew Perry, décède à 54 ans

    "Matthew Perry, célèbre pour son rôle de Chandler Bing dans Friends, décède à 54 ans. Acteur très apprécié, sa mort suscite l'émotion mondiale."

    Entité sioniste déploie des navires de guerre en Mer Rouge selon un expert militaire

    Entité sioniste déploie des navires de guerre en Mer Rouge pour contrer les Houthis au Yémen, une manœuvre vue comme une démonstration de force envers l'Iran.

    Banque suisse : Credit Suisse en chute libre après la faillite de la SVB

    L'action de Credit Suisse a dévissé de plus de...

    L’affaire des SMS entre Pfizer et la Commission européenne : ce qu’il faut savoir

    En avril 2021, le New York Times a révélé...

    Le Retour de Microsoft avec Bing et Edge : Une Menace pour Google ?

    Depuis moins de trois mois, ChatGPT a déjà créé...

    Israël frappe 44 zones du sud du Liban, Hezbollah riposte

    Israël a frappé 44 zones du sud du Liban, causant 10 morts. Le Hezbollah a riposté avec 60 attaques contre des cibles israéliennes.

    Trump menace l’Iran : frappes massives annoncées dans 2-3 semaines

    Trump menace des frappes « très puissantes » contre l'Iran dans 2-3 semaines, visant à détruire ses capacités militaires et nucléaires. Pays concernés : USA, Iran.

    Abu Obeida salue les mobilisations syriennes pour al‑Aqsa et les détenus

    Abu Obeida salue les manifestations en Syrie en soutien à al‑Aqsa et aux prisonniers palestiniens. Pays concernés : Syrie, Palestine, Israël.

    Un juge suspend la construction du ballroom de 400 M$ de Trump

    Un juge fédéral bloque temporairement le projet de ballroom à 400 M$ de Donald Trump à la Maison-Blanche en attendant l'autorisation du Congrès.

    Trump veut partir en 2-3 semaines et défie ses alliés sur le pétrole

    Trump affirme que les États-Unis pourraient mettre fin à la guerre contre l'Iran en 2-3 semaines et invite les alliés à se procurer leur propre pétrole.

    Gâteau au citron sans gluten, recette végétarienne

    Envie d'un gâteau au citron sans gluten, recette végétarienne, ultra moelleux grâce à une purée de pommes de terre?

    Interceptions au Koweït, Arabie saoudite et EAU; attaques en Irak

    Défenses aériennes ont intercepté missiles et drones au Koweït, Arabie saoudite et EAU; incidents et frappes signalés en Irak et Bahreïn.

    Guerre en Iran : quel dilemme stratégique pour la Chine ?

    Face à la guerre américano-israélienne contre l'Iran, la Chine privilégie prudence et diplomatie : le conflit teste sa stratégie et ses intérêts.

    à Lire

    Categories