Un expert de Fox News qualifie la proposition de Ramaswamy de « criminellement stupide » et de « comme un document de première année sur la politique étrangère »
Aug 16, 2023Le centre de contact client du comté de NCDMV Bladen fait don de fournitures scolaires
Aug 22, 2023Connecticut Garden Journal : Les tournesols en fin de vie
Jul 24, 2023Conversion de bureaux marron en appartements verts
Jul 17, 2023Une autre usine de papier toilette de l’Oregon ferme ses portes ; 72 travailleurs supplémentaires perdront leur emploi
Jul 11, 2023Auto
Publié
sur
Par
Lorsque l'on compare ChatGPT avec des agents d'IA autonomes tels qu'Auto-GPT et GPT-Engineer, une différence significative apparaît dans le processus de prise de décision. Alors que ChatGPT nécessite une implication humaine active pour mener la conversation, en fournissant des conseils basés sur les invites des utilisateurs, le processus de planification dépend principalement de l'intervention humaine.
Les modèles d’IA générative tels que les transformateurs constituent la technologie de base de pointe qui pilote ces agents d’IA autonomes. Ces transformateurs sont formés sur de grands ensembles de données, ce qui leur permet de simuler des capacités complexes de raisonnement et de prise de décision.
Beaucoup de ces agents d’IA autonomes sont issus d’initiatives open source dirigées par des individus innovants transformant les flux de travail conventionnels. Plutôt que de simplement proposer des suggestions, des agents tels qu'Auto-GPT peuvent gérer des tâches de manière indépendante, depuis les achats en ligne jusqu'à la création d'applications de base. L'interpréteur de code d'OpenAI vise à mettre à niveau ChatGPT de la simple suggestion d'idées à la résolution active des problèmes avec ces idées.
Auto-GPT et GPT-Engineer sont tous deux équipés de la puissance de GPT 3.5 et GPT-4. Il saisit la logique du code, combine plusieurs fichiers et accélère le processus de développement.
Le cœur de la fonctionnalité d'Auto-GPT réside dans ses agents IA. Ces agents sont programmés pour exécuter des tâches spécifiques, depuis les plus banales comme la planification jusqu'aux tâches plus complexes qui nécessitent une prise de décision stratégique. Cependant, ces agents IA opèrent dans les limites fixées par les utilisateurs. En contrôlant leur accès via des API, les utilisateurs peuvent déterminer la profondeur et la portée des actions que l'IA peut effectuer.
Par exemple, s'il est chargé de créer une application Web de chat intégrée à ChatGPT, Auto-GPT décompose de manière autonome l'objectif en étapes réalisables, comme la création d'un front-end HTML ou la création d'un script pour un back-end Python. Même si l'application produit ces invites de manière autonome, les utilisateurs peuvent toujours les surveiller et les modifier. Comme l'a montré le créateur d'AutoGPT @SigGravitas, il est capable de créer et d'exécuter un programme de test basé sur Python.
Mise à jour massive pour Auto-GPT : exécution de code ! 🤖💻
Auto-GPT est désormais capable d'écrire son propre code en utilisant #gpt4 et d'exécuter des scripts python !
Cela lui permet de déboguer, de développer et de s'auto-améliorer de manière récursive… 🤯 👇 pic.twitter.com/GEkMb1LyxV
– SigGravity (@SigGravity) 1er avril 2023
Bien que le diagramme ci-dessous décrit une architecture plus générale d'un agent d'IA autonome, il offre des informations précieuses sur les processus en coulisses.
Architecture d'agent IA autonome
Le processus est lancé par la vérification de la clé API OpenAI et l'initialisation de divers paramètres, notamment la mémoire à court terme et le contenu de la base de données. Une fois les données clés transmises à l'agent, le modèle interagit avec le GPT3.5/GPT4 pour récupérer une réponse. Cette réponse est ensuite transformée au format JSON, que l'agent interprète pour exécuter diverses fonctions, comme effectuer des recherches en ligne, lire ou écrire des fichiers, ou même exécuter du code. Auto-GPT utilise un modèle pré-entraîné pour stocker ces réponses dans une base de données, et les interactions futures utilisent ces informations stockées à titre de référence. La boucle continue jusqu'à ce que la tâche soit considérée comme terminée.
La mise en place d'outils de pointe tels que GPT-Engineer et Auto-GPT peut rationaliser votre processus de développement. Vous trouverez ci-dessous un guide structuré pour vous aider à installer et configurer les deux outils.
La configuration d’Auto-GPT peut sembler complexe, mais avec les bonnes étapes, cela devient simple. Ce guide couvre la procédure de configuration d'Auto-GPT et offre un aperçu de ses divers scénarios.
Génération de clés API Open AI
Options du back-end de mémoire : Un backend de mémoire sert de mécanisme de stockage à AutoGPT pour accéder aux données essentielles à ses opérations. AutoGPT utilise des capacités de stockage à court et à long terme. Pinecone, Milvus, Redis et autres sont quelques options disponibles.
L'Auto-GPT propose un riche ensemble d'arguments de ligne de commande pour personnaliser son comportement :
AutoGPT dans CLI