Alors que les logiciels propriétaires comme GPT et PaLM dominent le marché, de nombreux développeurs voient plutôt la valeur des modèles de langage open source. Prenez Meta comme exemple. Il a fait la une des journaux en février 2023 pour avoir officiellement publié le grand modèle de langage LLaMA en tant que programme open source. Sans surprise, cette décision a suscité des réactions mitigées.
Comme les modèles de langage open source ont de nombreux avantages et inconvénients et peuvent affecter positivement et négativement l'industrie de l'IA, nous avons résumé les points clés que vous devez connaître et comprendre.
5 impacts positifs des modèles de langage open source
Les modèles de langage open source favorisent une approche collaborative. Les contributions, les critiques et les cas d'utilisation des développeurs du monde entier les aident sans doute à avancer plus rapidement que les projets fermés.
1. Les développeurs d'IA économisent des ressources à l'aide de modèles open source
Le lancement de modèles de langage propriétaires coûte des millions, voire des milliards, en ressources. Prenez OpenAI comme exemple.
Interne du milieu des affaires rapporte que la société a dû lever environ 30 milliards de dollars pour faire fonctionner efficacement ChatGPT. Obtenir autant de financement est impossible pour la plupart des entreprises. Les startups technologiques à leurs débuts auraient de la chance d'atteindre même sept chiffres.Compte tenu de la surcharge élevée, de nombreux développeurs utilisent à la place des modèles de langage open source. Ils économisent des millions en utilisant l'architecture, la structure neuronale, les données de formation, l'algorithme, la mise en œuvre du code et les ensembles de données de formation de ces systèmes.
2. Les modèles open-source avancent sans doute plus vite
De nombreux leaders technologiques affirment que les modèles de langage open source progressent plus rapidement que leurs homologues propriétaires. Ils apprécient les contributions et la collaboration de la communauté. Des millions de développeurs qualifiés travaillent sur des projets ouverts. Ils pourraient théoriquement réaliser une itération sophistiquée et sans erreur beaucoup plus rapidement.
Couvrir les lacunes dans les connaissances est également plus rapide avec l'IA open source. Au lieu de former des équipes pour trouver des bogues, tester des mises à jour et explorer des implémentations, les entreprises peuvent analyser les contributions de la communauté. Le partage des connaissances permet aux utilisateurs de travailler plus efficacement.
Les contributions de la communauté ne sont pas toujours exactes. Les développeurs doivent toujours revérifier les algorithmes et les modèles avant de les intégrer dans leurs systèmes.
3. Les développeurs repéreront les vulnérabilités plus rapidement
Les modèles de langage open source encouragent les évaluations par les pairs et l'engagement actif au sein de sa communauté collaborative. Les développeurs peuvent accéder librement aux modifications de la base de code. Avec autant d'utilisateurs analysant des projets ouverts, ils repéreront probablement plus rapidement les problèmes de sécurité, les vulnérabilités et les bogues du système.
De même, la résolution des bogues est également rationalisée. Au lieu de résoudre manuellement les problèmes système, les développeurs peuvent vérifier le système de contrôle de version du projet pour les correctifs précédents. Certaines entrées peuvent être obsolètes. Cependant, ils fourniront toujours aux chercheurs et aux formateurs en IA un point de départ utile.
4. Les leaders de la technologie de l'IA apprennent des modèles open source
Les modèles de langage open source bénéficient d'une boucle de rétroaction. La boucle de rétroaction positive partage des algorithmes, des ensembles de données et des fonctions efficaces, encourageant les développeurs à les imiter. Le processus leur fait gagner beaucoup de temps. Notez simplement que des erreurs peuvent survenir avec des commentaires positifs que les utilisateurs reproduisent au hasard - les erreurs ont tendance à être ignorées.
Pendant ce temps, la boucle de rétroaction négative se concentre sur les domaines d'amélioration. Le processus implique de partager des informations personnelles tout en résolvant des bogues, en testant de nouvelles fonctions et en résolvant des problèmes système.
5. Les plates-formes d'IA open source obtiennent les premiers avis sur les nouveaux systèmes
Les entreprises technologiques ne partagent pas des systèmes linguistiques d'un milliard de dollars par gentillesse. Bien que les licences open source accordent aux utilisateurs tiers la liberté de modifier et de vendre des systèmes, elles ont des limites.
Les distributeurs créent souvent des conditions qui garantissent qu'ils conservent une certaine autorité. Vous trouverez ces règles dans les accords de licence des programmes open source - les utilisateurs finaux obtiennent rarement une autorité à 100 %.
Disons que Meta veut contrôler les produits alimentés par LLaMA. Son équipe juridique pourrait préciser que Meta se réserve le droit d'investir dans tout nouveau système construit sur son modèle de langage.
Mais ne vous méprenez pas: les développeurs et les distributeurs tiers forment toujours des accords mutuellement avantageux. Ce dernier fournit des technologies et des systèmes d'un milliard de dollars. Pendant ce temps, les startups et les développeurs indépendants explorent les moyens de les implémenter dans différentes applications.
5 impacts négatifs des modèles de langage open source
Les modèles de langage open source sont intrinsèquement impartiaux, mais les humains ne le sont pas. Les consommateurs, les développeurs et les entreprises aux intentions malveillantes pourraient exploiter la nature ouverte de ces systèmes à des fins personnelles.
1. Les entreprises rejoignent au hasard la course à l'IA
Les entreprises subissent actuellement trop de pression pour rejoindre la course à l'IA. Avec la vulgarisation des systèmes d'IA, de nombreuses entreprises craignent qu'elles ne deviennent obsolètes si elles n'adoptent pas l'IA. En conséquence, les marques sautent au hasard dans le train en marche. Ils intègrent des modèles de langage open source dans leurs produits dans le but de vendre le produit et de suivre la concurrence, même s'ils n'offrent rien de valable.
Oui, l'IA est un marché en émergence rapide. Mais la diffusion négligente de systèmes sophistiqués mais non sécurisés nuit à l'industrie et compromet la sécurité des consommateurs. Les développeurs doivent utiliser l'IA pour résoudre les problèmes, et non exécuter des gadgets marketing.
2. Les consommateurs ont accès à une technologie qu'ils comprennent à peine
Vous trouverez des variantes basées sur l'IA de divers outils technologiques, de éditeurs d'images en ligne pour applications de surveillance de la santé. Et les marques continueront à introduire de nouveaux systèmes à mesure que l'IA évolue. Les modèles d'IA les aident à fournir des itérations plus personnalisées et axées sur l'utilisateur de leurs plates-formes existantes.
Alors que l'industrie technologique accueille favorablement les innovations, l'évolution rapide de l'IA dépasse la formation des utilisateurs. Les consommateurs accèdent à des technologies qu'ils comprennent à peine. Le manque d'éducation crée d'énormes lacunes dans les connaissances, ce qui expose le public aux menaces de cybersécurité et aux pratiques prédatrices.
Les marques doivent donner la priorité à la formation autant qu'au développement de produits. Ils doivent aider les utilisateurs à comprendre les moyens sûrs et responsables d'utiliser de puissants outils basés sur l'IA.
3. Tous les développeurs n'ont pas de bonnes intentions
Tout le monde n'utilise pas les outils d'IA aux fins prévues. Par exemple, OpenAI a développé ChatGPT pour répondre à des questions de connaissances générales sans danger pour le travail et reproduire la sortie en langage naturel, mais les criminels l'exploitent pour des activités illicites. Il y a eu plusieurs Escroqueries ChatGPT depuis le lancement du chatbot IA en novembre 2022.
Même si les laboratoires d'IA appliquent des restrictions rigides, les escrocs trouveront toujours des moyens de les contourner. Prenez ChatGPT comme exemple à nouveau. Les utilisateurs contournent les contraintes et effectuent des tâches interdites en utilisant Invites de jailbreak ChatGPT.
Les conversations ci-dessous démontrent ces vulnérabilités. ChatGPT a des ensembles de données limités; par conséquent, il ne peut pas faire de prédictions sur des événements instables et non garantis.
Malgré ses limites, ChatGPT a exécuté notre demande et fourni des prédictions sans fondement après l'avoir jailbreaké.
4. Les institutions pourraient avoir du mal à réglementer l'IA open source
Les organismes de réglementation ont du mal à suivre le rythme de l'IA, et la prolifération des modèles open source ne fait que rendre la surveillance plus difficile. Les progrès de l'IA dépassent déjà les cadres réglementaires. Même des leaders mondiaux de la technologie comme Elon Musk, Bill Gates et Sam Altman appelle à une réglementation plus stricte de l'IA.
Les secteurs privé et public doivent contrôler ces systèmes. Sinon, des individus malveillants continueront à les exploiter pour violer les lois sur la confidentialité des données, exécuter vol d'identité, et les victimes d'escroquerie, entre autres activités illicites.
5. Abaisser les barrières à l'entrée entrave la qualité
La prolifération des modèles de langage open source réduit les barrières à l'entrée pour rejoindre la course à l'IA. Vous trouverez des milliers d'outils basés sur l'IA en ligne.
Voir des entreprises adopter l'apprentissage automatique et en profondeur peut sembler impressionnant, mais peu d'entre elles apportent une valeur réelle. La plupart copient simplement leurs concurrents. Au fil du temps, l'accessibilité de modèles de langage sophistiqués et d'ensembles de données de formation pourrait transformer en marchandises des plates-formes d'IA inutiles.
L'impact global des modèles de langage open source sur l'industrie de l'IA
Si les modèles de langage open source rendent les technologies d'IA plus accessibles, ils présentent également plusieurs risques de sécurité. Les développeurs devraient définir des restrictions plus strictes. Crooks continuera à exploiter l'architecture transparente de ces systèmes autrement.
Cela dit, les consommateurs ne sont pas entièrement sans défense contre les arnaques à l'IA. Familiarisez-vous avec les façons courantes dont les escrocs exploitent les outils d'IA générative et étudiez les signes avant-coureurs d'attaques. Vous pouvez lutter contre la plupart des cybercrimes en restant vigilant.