Skip to content

⏩ Continue is the leading open-source AI code assistant. You can connect any models and any context to build custom autocomplete and chat experiences inside VS Code and JetBrains

License

Notifications You must be signed in to change notification settings

Intrinsec/continue

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

À propos de Continue.dev (Fork Intrinsec)

====================================================

Continue.dev est l'assistant de codage IA open source principal. Conçu pour connecter n'importe quel modèle et contexte, il permet de créer des expériences personnalisées d'autocomplétion et de chat directement dans l'environnement de développement. Au-delà de l'approche IDE, cela ouvre la porte à la création de cas d'utilisation autour de fichiers texte (notamment Markdown) et d'interactions avancées avec des LLM (Large Language Models).

Pour Intrinsec, cette version spécialisée offre:

  • Compatibilité avec la plateforme https://ai.intrinsec.com
  • Accès aux modèles autorisés pour le traitement des données clients
  • Accès aux modèles commerciaux
  • La possibilité d'utiliser les modèles fournis par d'autres infrastructures (usages directs d'OpenAI/Claude, etc.)
  • Important : L'utilisation d'infrastructures externes pour les travaux relatifs à Intrinsec n'est plus autorisée.

Guide d'Installation et de Configuration de Continue (Fork Intrinsec)


Installation

  1. Téléchargement : Téléchargez la dernière version de l'extension correspondant à votre système d'exploitation (par exemple, continue-win32-x64-0.X.XXX.vsix pour Windows). https://github.com/Intrinsec/continue/releases/ .
  2. Accès aux Extensions : Accédez à l'onglet "Extensions" de Visual Studio Code : Fichier > Préférences > Extensions.
  3. Installation à partir de VSIX : Cliquez sur le menu contextuel (trois petits points en haut à droite du panneau Extension) et sélectionnez Installer à partir de VSIX....

Configuration Initiale

  • Important : Désactivez les mises à jour automatiques de Continue pour éviter la synchronisation avec la version officielle.
  • Dans la catégorie Extensions, cliquez sur l'extension Continue.
  • Décochez la case Mise à jour automatique.

Paramétrage

  • Pour les utilisateurs de Continue.dev existants dans VSCode :
    • Sauvegardez votre configuration précédente.
    • Désinstallez la version existante de Continue.dev.
    • Étapes de configuration :
  1. Accès au fichier de configuration :
  • Cliquez sur l'icône de l'Extension Continue.
  • Cliquez ensuite sur "Or, remain local." en dessous du bouton "Get started"
  • CLiquer ensuite sur sur le lien config file de la phrase "This will update your config file" (En bas de la page)
  1. Méthode alternative d'accès à la configuration :
  • La configuration du plugin est accessible via le fichier : C:\Users\user\.continue\config.yaml une fois que le plugin à été éxécuté une première fois.
  1. Mise à jour de la configuration : Effacez le contenu actuel du fichier de configuration et remplacez-le par la nouvelle configuration fournie.
  2. Important : Remplacez toutes les occurrences de "FIXME_APIKEY" par votre jeton d'authentification API Dragonfly.

Personnalisation

  • Pour ajouter des modèles supplémentaires :
    • Consultez la section "Models" de la documentation API de la plateforme IA.
    • Copiez le nom et le titre du modèle souhaité et ajouter le parametre contextLength correspondant à la valeur "Context Window".
    • Ajoutez un nouveau bloc de modèle dans votre configuration.

Fichier de Configuration (config.yaml)

%YAML 1.1
---
name: Dragonfly
version: 0.0.1
schema: v1

model_defaults: &model_defaults
  provider: dragonfly
  apiKey: FIXME_APIKEY

models:
  - name: claude-3-7-sonnet-latest
    <<: *model_defaults
    model: claude-3-7-sonnet-latest
    contextLength: 200000
    roles:
      - chat
      - edit
  - name: CT SNC
    <<: *model_defaults
    model: neuralmagic/Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic
    contextLength: 60000
    roles:
      - chat
      - edit
  - name: mistral-large-latest
    <<: *model_defaults
    model: mistral-large-latest
    contextLength: 128000
    roles:
      - chat
      - edit

context:
  - provider: file
  - provider: currentFile
  - provider: code
  - provider: codebase
    params:
      nFinal: 10
  - provider: docs
  - provider: diff
  - provider: folder
  - provider: terminal

Recommandations


Usages et Protection des Secrets

  • Attention : Continue.dev est particulièrement utile pour ses fonctions de gestion du contexte d'entrée soumis au LLM. Pensez à vérifier les éléments envoyés (automatiquement ou explicitement) basés sur vos fichiers ouverts dans VS Code.
  • Conseil : Utilisez Claude 3.5 pour le développement, mais évitez d'envoyer des mots de passe, clés d'API, clés privées, etc.

Apprentissage

Recommandations pour la Version Courante (0.8)

  • Configuration Utilisateur de Continue :
  • L'option d'inclusion des fichiers ouverts via le provider de contexte @openFile dans le chat avec le LLM est positionnée sur onlyPinned: True. Cela permet de choisir précisément les fichiers à inclure en les "pinnant" (clic droit sur le nom).
  • La fonctionnalité Autocomplete nécessite un petit modèle avec un entraînement particulier (voir doc si besoin). Il est recommandé de tester avec une instance ollama locale et le modèle Qwen2.

Contribuer au Développement


Lisez la Documentation

Organisation du Fork

  • Branche "main" : La branche "main" locale est identique à la branche "main" du projet sur GitHub.
  • Branche "dragonfly" : Les modifications sont effectuées dans la branche "dragonfly", et les releases seront produites à partir de celle-ci.
  • Mises à jour régulières : Régulièrement, les modifications apportées sur la branche "main" officielle seront mergées dans la branche "dragonfly".

Provider Dragonfly

  • Description : La principale modification de ce fork de Continue est l'ajout d'un nouveau provider de LLM, "dragonfly".
  • Emplacement : Le fichier est situé dans le dossier core/llm/llms/Dragonfly.ts.
  • Implémentation : L'implémentation actuelle étend simplement la classe du provider OpenAI tout en implémentant certaines spécificités liées aux modèles d'Anthropic (claude-sonnet).

Proposer une Feature

  • Créer une Issue : Créez une issue et expliquez les ajouts/modifications à effectuer.
  • Créer une Merge Request : Créez ensuite la merge request associée depuis la branche "dragonfly" en créant une nouvelle branche dédiée au développement.

TODO

  • Support IDE Jetbrains : Tester et compiler la version pour les IDE Jetbrains.
  • Provider Dragonfly dans l'outil de configuration : Implémenter le provider dragonfly dans l'outil de configuration initial de Continue, afin de ne plus avoir à modifier la configuration à la main.
  • Mise à jour automatique : Étudier la possibilité de mettre en place une fonction de mise à jour automatique.

About

⏩ Continue is the leading open-source AI code assistant. You can connect any models and any context to build custom autocomplete and chat experiences inside VS Code and JetBrains

Resources

License

Code of conduct

Security policy

Stars

Watchers

Forks

Packages

No packages published

Languages

  • TypeScript 69.9%
  • JavaScript 18.1%
  • Kotlin 6.9%
  • Rust 1.8%
  • CSS 1.4%
  • Tree-sitter Query 1.3%
  • Other 0.6%