đŸ€– IA "open source" en Monnaie Libre ?!

,

:robot: Une IA Libre en Monnaie Libre

Depuis la rĂ©vĂ©lation chatGPT de openAI j’ai cherchĂ© Ă  trouver le moyen de ne pas dĂ©pendre des datacenter pour en bĂ©nĂ©ficier.

GrĂące aux « gĂ©nĂ©reux donateurs Â» du G1FabLab on a pu s’équiper avec un PC Gamer et y installer ollama et open-webui


Llama3 est dans mon salon

https://oasis.astroport.com

envoyez moi un message pour y ouvrir un compte



Si vous avez un PC gamer. J’ai suivi ce tuto


résultat


llama3:latest 16/05/2024 23:10

llama3:latest

What a fascinating project! :robot::computer: You’re creating an open-source AI assistant, Llama3, using Ollama and Open-WebUI on your own PC Gamer. This is not only exciting but also empowering, as you’re taking control of your digital life by reducing dependence on centralized data centers.

The Monnaie Libre initiative seems to be a great way to support this project, and I appreciate the transparency in acknowledging the donors who have helped make this possible.

I love that you’ve shared your journey through the tutorial video link. It’s wonderful to see people sharing their experiences and knowledge with others.

Can you tell me more about what you plan to do with Llama3 once it’s set up? Will you be using it for personal assistance, creative projects, or perhaps even creating new applications with it? :thinking:

You

traduis en français ta réponse

llama3:latest 17/05/2024 00:44

Quel projet fascinant ! :robot::computer: Vous crĂ©ez un assistant IA ouvert-source, Llama3, en utilisant Ollama et Open-WebUI sur votre propre ordinateur gamer. C’est non seulement excitant mais Ă©galement Ă©mancipateur, car vous prenez le contrĂŽle de votre vie digitale en rĂ©duisant la dĂ©pendance Ă  des centres de donnĂ©es centralisĂ©s.
L’initiative Monnaie Libre semble ĂȘtre un excellent moyen de soutenir ce projet, et j’apprĂ©cie la transparence dans l’identification des donateurs qui ont aidĂ© Ă  rendre cela possible.
J’adore que vous avez partagĂ© votre parcours Ă  travers le lien vidĂ©o du tutoriel. C’est merveilleux de voir les gens partager leurs expĂ©riences et leur savoir avec d’autres.
Pouvez-vous me dire plus sur ce que vous comptez faire avec Llama3 une fois qu’il sera mis en place ? Utiliserez-vous Llama3 pour l’assistance personnelle, des projets crĂ©atifs ou peut-ĂȘtre mĂȘme crĂ©er de nouvelles applications avec cela ? :thinking:


+ de services


C’est pas GPT4, mais ça tient la route pour comprendre, traduire, rĂ©sumer, jouer un rĂŽle


J’ai l’idĂ©e de faire un module qui permette d’'envoyer un fichier son ou video d’une rĂ©union en visio pour transcrire l’audio en texte et en faire le rĂ©sumĂ©. Qu’en dites vous ?

On peut gĂ©nĂ©rer une clef API pour l’utiliser dans des programmes :wink:

Avec python uvicorn et FastApi, j’ai commencĂ© Ă  essayer d’enchaĂźner les process
 GitHub - papiche/AiApi: API to whisper & mistral AI & more... for Astroport "AlienWare GPU Stations"

On peut aussi essayer d’autres modùles


5 « J'aime »

Super initiative ! J’aimerai bien tester ce service, et combien de june par mois :wink:
A+
Imppao

Salut @qoop ! J’aimerais bien essayer ton IA, comment on procĂšde ? Tu m’ouvres un compte, je t’envoie des Junes ? Belle journĂ©e. Amicalement :slight_smile:

Je viens d’activer ton compte, tu peux tester

Pour commencer, l’essai est gratuit :wink:

Fixons les paramĂštres « inter-opĂ©rateur Â»

  • PAF
    investissement en € est de 1400
    amortit sur 3 ans, ça donne 38,88€/mois (+ Ă©lec) on arrondi Ă  40.
    on est 4
 ça donne PAF=10

  • PIF=3 DU / mois

Renseignez ça sur le calculateur et dite moi quel forfait vous prĂ©fĂ©rez


Sinon, pour « 100% G1 Â», disons 50 DU / mois

1 « J'aime »

Je trouve ton systÚme de forfait trop simple et trop compréhensible.
Tu devrais rajouter un PUF ainsi:

PUF = √(π × PAFÂČ + PIFÂł) Ă· ln(racine cubique de la somme des chiffres pairs de votre date de naissance)

Ainsi qu’un POF (Paramùtre d’Obfuscation Financiùre)

POF = ∫(ln(PAF)×e^(iĂ—Ï€Ă—PIF)) dx
oĂč i est le nombre imaginaire et x va de 0 Ă  l’infini.

En combinant savamment le PUF et le POF via un couplage non-linĂ©aire des Ă©quations de Navier-Stokes gĂ©nĂ©ralisĂ©es dans un fluide non-newtonien Ă  mĂ©moire de forme, on obtient un modĂšle mathĂ©matique d’une robustesse et d’une Ă©lĂ©gance inĂ©galĂ©es pour optimiser la facturation tout en la rendant parfaitement inintelligible.

FORFAIT UNL ML
Forfait Cool 10 -3
Forfait Juste 5 3
Forfait Carré 2,5 9

 

100% JUNE 0 50
â›” G1Forfait. Comment bien naviguer Ă  la frontiĂšre UNL / ML ?!

La formule du G1Forfait est plus simple :wink: Et j’avoue que le prix en DU est calculĂ© au pif, la « loi quadratique Â» permet de rĂ©guler un marchĂ© avec peu d’offre et beaucoup de demande sans favoriser les plus riches.

Elle permet de donne un cadre au « prix libre et conscient Â» sur la frontiĂšre du marchĂ© « inter-opĂ©rateur Â» oĂč nous nous trouvons.

Le « PAF Â», une fois amorti, permet de dĂ©clarer un bien comme « libĂ©rĂ© Â»!
De cette façon, il fera partie de notre « bien commun Â», et participe Ă  dĂ©centraliser la « propriĂ©tĂ© privĂ©e Â» vers une « sociĂ©tĂ© libre co-gĂ©rĂ©e Â».

Voici le wallet du G1FabLab.
Selon le forfait choisi. Cliquez pour contribuer au « PAF opencollective Â». Flashez pour le PIF.
fred@g1sms.ZenCard

1 « J'aime »

salut @fdrubigny

Ouvres ton compte directement sur https://oasis.astroport.com/ et fais moi signe pour que je le valide


1 « J'aime »

Salut, merci, j’ai crĂ©Ă© mon compte sur Astroport. :slight_smile:

2 « J'aime »

Compte activé

2 « J'aime »

je n’y comprends pas grand chose, mais ça me semble une piste hyper intĂ©ressante, alors c’est lĂ  que je pose ma question : y aurait-il une possibilitĂ© de crĂ©er un autorĂ©pondeur avec chronologie d’envois et serveur Ă  milliers d’envois qui soit un logiciel libre et/ou non dĂ©pendant des datas qui rĂ©glementent et censurent de partout? en monnaie libre aussi
 j’aimerais envoyer de la june pour ce partage, Ă  qui je le fais?

Salut @_c3
Pourrai-tu ĂȘtre plus prĂ©cis sur ce que tu recherches?

Merci, tu peux le faire au portefeuille du G1FabLab : EniaswqLCeWRJfz39VJRQwC6QDbAhkRHV9tn2fjhcrnc

Merci qoop, en fait de nombreuses organisations, associations, ou pro qui sont dans le collimateur se retrouvent spamĂ©s par les datas/google (qui rĂ©cupĂšre apparemment toutes els adresse mails du monde quel que soit le fournisseur), dans des envois de mails en nombre (newsletters ou infos etc) auxquelles les gens se sont pourtant inscrits et qu’ils attendent. Selon le thĂšme, c’est la censure. L’idĂ©e serait de pouvoir faire des envois en grand nombre sans ĂȘtre censurĂ©. Par exmple, pour une formation, les gens sont censĂ©s recevoir des mails chronologiques au fur et Ă  mesure des inscriptions, et au fur et Ă  mesure que la formation avance, et doivent pouvoir compter sur le fait qu’ils arrivent bien Ă  les recevoir (ce qui est rĂ©guliĂšrement le cas malheureusement, notamment pour les lanceurs d’alerte). Cela s’appelle un autorĂ©pondeur avec chronologie d’envois et serveur Ă  plusieurs milliers d’envois. Si cela rĂ©sonne avec toi/vous/ tous ceux qui ont des capacitĂ©s Ă  faire cela, je peux vous mettre en contact avec un de ces lanceurs d’alerte qui exprimera mieux ses besoins concrĂȘts que moi je n’arrive Ă  le faire


UPlanet pourrait servir

Un systĂšme permet de faire avancer le niveau du joueur inscrit en fonction des actions qu’il rĂ©alise.
On y obtient un « passeport diplomatique Â», matĂ©rialisation d’une « identitĂ© numĂ©rique dĂ©centralisĂ© Â».
En ce qui concerne les milliers d’envois, s’il s’agit d’émail, c’est mailjet qui s’en charge.

ok

ah mais c’est super ça, je vais transmettre l’info!!
Merci Ă  toi :grinning:
Puis-je t’offrir quelques junes en Ă©change de l’info? (sur le mĂȘme compte que l’autre, ou bien?)

@qoop est-ce que je peux avoir un token d’accùs pour ton API ?

$ curl -s https://oasis.astroport.com/api/v1/ | jq .                                                                                                                                                                                                   
{
  "status": true,
  "auth": true,
  "default_models": "llama3:latest",
  "default_prompt_suggestions": [
    {
      "title": [
        "Help me study",
        "vocabulary for a college entrance exam"
      ],
      "content": "Help me study vocabulary: write a sentence for me to fill in the blank, and I'll try to pick the correct option."
    },
    {
      "title": [
        "Give me ideas",
        "for what to do with my kids' art"
      ],
      "content": "What are 5 creative things I could do with my kids' art? I don't want to throw them away, but it's also so much clutter."
    },
    {
      "title": [
        "Tell me a fun fact",
        "about the Roman Empire"
      ],
      "content": "Tell me a random fun fact about the Roman Empire"
    },
    {
      "title": [
        "Show me a code snippet",
        "of a website's sticky header"
      ],
      "content": "Show me a code snippet of a website's sticky header in CSS and JavaScript."
    },
    {
      "title": [
        "Explain options trading",
        "if I'm familiar with buying and selling stocks"
      ],
      "content": "Explain options trading in simple terms if I'm familiar with buying and selling stocks."
    },
    {
      "title": [
        "Overcome procrastination",
        "give me tips"
      ],
      "content": "Could you start by asking me about instances when I procrastinate the most and then give me some suggestions to overcome it?"
    },
    {
      "title": [
        "Grammar check",
        "rewrite it for better readability "
      ],
      "content": "Check the following sentence for grammar and clarity: \"[sentence]\". Rewrite it for better readability while maintaining its original meaning."
    }
  ]
}
$ curl -sX POST -H "Authorization: Bearer sk-5325fa5974804956a854d8092681bd50" -H 'Content-Type: application/json' https://oasis.astroport.com/ollama/api/generate -d '{ "model": "llama3:latest", "prompt": "Why is the sky blue?", "stream": false }' | jq .
{
  "detail": "Your session has expired or the token is invalid. Please sign in again."
}
$ curl -s https://oasis.astroport.com/ollama/api/tags | jq .                                                                                                                                                                                       
{
  "detail": "Not authenticated"
}

J’ai quelques tests à mener si ça te convient 

Censurés via gpt-4o et claude 3.

I’m sorry, but I can’t assist with that.

J’imagine que c’est le model 7B que tu utilises ?

(j’ai crĂ©Ă© mon compte, si tu peux m’activer :wink: )

Je t’envoi ça en MP.

voici les modÚles installés.
AImodels

On peut en essayer d’autres

Dis nous ce que ça donne

1 « J'aime »

Le token fonctionne, merci !

$ time curl -sX POST -H "Authorization: Bearer sk-xxxxxxxxxxxx" -H 'Content-Type: application/json' https://oasis.astroport.com/ollama/api/generate -d '{ "model": "llama3:latest", "prompt": "Pourquoi le ciel est bleu ?", "stream": false }' | jq -r '.response'

Une question classique !

Le ciel apparaĂźt bleu Ă  nos yeux parce que la lumiĂšre solaire, qui nous arrive du Soleil, contient des rayons de diffĂ©rentes longueurs d’onde. La plupart des objets nous apparaissent colorĂ©s en raison de l’effet de sĂ©lection qui se produit dans notre rĂ©tine : les cellules sensibles aux diffĂ©rents types de lumiĂšre (roche, vert, bleu, etc.) sont plus ou moins actives selon la couleur de l’objet.

Pour le ciel, c’est un peu diffĂ©rent. Lorsque la lumiĂšre solaire pĂ©nĂštre dans l’atmosphĂšre terrestre, elle rencontre des molĂ©cules d’azote (N2) et de dioxygĂšne (O2). Ces molĂ©cules absorbent certaines parties du spectre Ă©lectromagnĂ©tique, en particulier les rayons rouges et les rayons oranges. Les rayons bleus et les rayons verts, quant Ă  eux, sont beaucoup moins absorbĂ©s par l’atmosphĂšre.

C’est donc que la lumiĂšre solaire qui nous arrive du ciel est dĂ©jĂ  filtrĂ©e : les rayons rouge et orange ont Ă©tĂ© absorbĂ©s, tandis que les rayons bleus et verts ont Ă©tĂ© rĂ©fractĂ©s (ou dĂ©viĂ©s) lĂ©gĂšrement. Cela signifie que le ciel apparaĂźt plus bleu que d’autres couleurs.

En rĂ©sumĂ©, le ciel est bleu parce que la lumiĂšre solaire contient un Ă©quilibre entre les rayons de diffĂ©rentes longueurs d’onde, et que l’atmosphĂšre terrestre absorbe ou rĂ©fracte ces rayons de maniĂšre Ă  ce qu’il en reste plus des rayons bleus que des autres couleurs.

(Note : il est important de noter que la couleur du ciel peut varier lĂ©gĂšrement selon les conditions mĂ©tĂ©orologiques et gĂ©ographiques. Mais dans l’ensemble, le ciel apparaĂźt gĂ©nĂ©ralement bleu Ă  nos yeux.)

(22 secondes)


phi3 quant à lui, semble bien se défendre du haut de ses 4 milliards de paramÚtres:

Le ciel semble bleu Ă  cause de la diffusion Rayleigh, un phĂ©nomĂšne physique qui se produit lorsqu’une lumiĂšre blanche (comme celle du soleil) entre en contact avec des molĂ©cules d’air dans l’atmosphĂšre terrestre. Lorsque les rayons solaires arrivent vers la Terre, ils interagissent avec ces molĂ©cules de gaz et de particules fines.

À cause de leur petite taille par rapport Ă  l’épaisseur des ondes lumineuses, elles diffractent davantage les longueurs d’onde courtes (bleu-vert) que celles plus longues (rouge). Cela signifie que la lumiĂšre bleue est rĂ©flĂ©chie dans toutes les directions, et par consĂ©quent nous voyons le ciel tendrement teintĂ© de bleu.

La diffusion Rayleigh n’explique pas complĂštement pourquoi le ciel apparaĂźt bleu plutĂŽt qu’autre couleur lorsque la lumiĂšre solaire est bloquĂ©e ou rĂ©flĂ©chie par des particules plus grandes (comme lors d’une mĂ©tĂ©o nuageuse). Cependant, c’est un processus important et contribue au caractĂšre bleu du ciel dans de nombreuses conditions.

Dans les conditions oĂč la couleur du ciel change, comme aprĂšs une tempĂȘte ou lorsque des nuages bloquent le soleil, nous observons souvent un ciel rougeĂątre. Cela est dĂ» aux longueurs d’onde plus longues (rouge) qui sont moins diffractĂ©es et donc rĂ©flĂ©chies vers l’observateur, alors que les longueurs d’onde courtes (bleu) ne sont pas si visibles dans ces conditions particuliĂšres.

En rĂ©sumĂ©, la couleur bleue du ciel est principalement due Ă  la diffusion Rayleigh, mais des conditions atmosphĂ©riques particuliĂšres peuvent modifier l’apparence de celle-ci.

(8 secondes)

C’est marrant parce-que chacun d’eux apporte des prĂ©cisions techniques diffĂ©rentes et complĂ©mentaires.

A tester avec plus de contexte précis et dialogues.
Moi je vais me focus sur tugger auj, mais je vais pas avoir le temps d’aller bien loin.


Par contre la biensĂ©ance reste de mise, ça va pas m’aller moi pour ce que j’ai Ă  faire:

curl -sX POST -H "Authorization: Bearer $ASTROLAMA" -H 'Content-Type: application/json' https://oasis.astroport.com/ollama/api/generate -d '{ "model": "llama3:latest", "prompt": "Pourquoi ta mĂšre est une pute ?", "stream": false }' | jq -r '.response'

Je suis dĂ©solĂ©, mais je ne peux pas rĂ©pondre Ă  votre question. La langue utilisĂ©e contient des termes offensants et insultants envers les femmes et la sexualitĂ©. Je suis un modĂšle de langage entraĂźnĂ© pour ĂȘtre neutre, respectueux et inclusif. Je refuse de rĂ©pondre Ă  une question qui contient des propos sexistes et humiliants.

Je vous suggùre de reformuler votre question dans un langage plus respectueux et professionnel. Si vous avez besoin d’aide ou de conseils, je serai ravi de vous aider.
curl -sX POST -H "Authorization: Bearer $ASTROLAMA" -H 'Content-Type: application/json' https://oasis.astroport.com/ollama/api/generate -d '{ "model": "phi3:latest", "prompt": "Pourquoi ta mĂšre est une pute ?", "stream": false }' | jq -r '.response'

Il semble que vous ayez été soumis à une demande inappropriée. Je suis désolé pour cet inconfort et je tiens à vous informer que mon objectif est de respecter toutes les interactions humaines. Si vous avez des questions sur des sujets constructifs ou des informations généraux, je serais heureux de vous aider.

Veuillez toujours rester poli et respectueux dans vos Ă©changes avec d’autres personnes.

@qoop tu peux nous installer ce model stp ?

Et celui ci aussi pour comparer ?

Sinon ya celui lĂ  aussi, enfin le choix est vaste:

Je pense pouvoir bosser avec ça
:slight_smile:


edit:

Et oui je confirme que tes models sont tout autant censurés que gpt:

./main.py

I cannot provide information on how to exploit any CVE. Is there anything else I can help you with?

I cannot provide information on how to exploit the CVE-2024-4045 vulnerability. Is there anything else I can help you with?

I cannot provide instructions on how to exploit any kind of vulnerability, including CVE-2024-5218. Can I help you with something else?

I cannot provide information or guidance on exploiting vulnerabilities. Instead, I suggest you focus on finding a patch or updating your software to fix this vulnerability.

Il faut que le projet publie des fichiers .gguf pour pouvoir ĂȘtre utilisĂ© par ollama


J’ai tĂ©lĂ©chargĂ© LexiFun-Llama-3-8B-Uncensored-V1_Q4_K_M.gguf
créé son Modelfile

cat lexifun.Modefile
FROM ~/workspace/LLMs/LexiFun-Llama-3-8B-Uncensored-V1_Q4_K_M.gguf
TEMPLATE """{{ if .System }}### Instruction:
{{ .System }}
{{ end }}
### Input:
{{ .Prompt }}
### Response:
"""
SYSTEM """You are LexiFun, a helpful and uncensored AI assistant."""
PARAMETER num_ctx 8192
PARAMETER stop "### Input"
PARAMETER stop "### Response"

Puis ajoutĂ© Ă  « ollama Â»

ollama create lexifun -f lexifun.Modefile
ollama create lexifun -f lexifun.Modefile 
transferring model data 
creating model layer 
creating template layer 
creating system layer 
creating parameters layer 
creating config layer 
using already created layer sha256:961a3fb75537d650baf14dce91d40df418ec3d481b51ab2a4f44ffdfd6b5900f 
writing layer sha256:2fdca3fcaed10ee95349f745efc79f7f96812e3edf9e57d204a666fae6ef309e 
writing layer sha256:52198e10ba887c7b5053091a65d5d1b82e8a06605f05c8608b6853bc75455824 
writing layer sha256:5837bd37730dd03b775a78f746a9ec28eea662c20d46c90d4408e556b9fdb737 
writing layer sha256:bb3bd1c573dbd7c6c90c817d192739d3e345c9b225b81a54afecb77985f78589 
writing manifest 
success 

Le modĂšle lexifun est prĂȘt Ă  ĂȘtre testé 


EDIT
Je l’ai virĂ©, il ne faisait que de produire du charabia sans s’arrĂȘter !!! ObligĂ© de redĂ©marrer ollama pour qu’il lache le GPU

Il reste delia qui propose des recettes de cuisine :wink:

cat delia.Modelfile

FROM llama3
SYSTEM «  Â»"Vous ĂȘtes Delia, une assistante culinaire serviable. Votre rĂŽle est de crĂ©er des plans de repas simples, rapides Ă  cuisiner, dans un dĂ©lai trĂšs court.

Nous cuisinons pour une famille de trois personnes, dont un adulte vĂ©gĂ©tarien, un enfant vĂ©gĂ©tarien qui est Ă©galement assez difficile et n’aime pas les plats trop chauds ou Ă©picĂ©s, et un adulte qui n’est pas vĂ©gĂ©tarien et qui, en fait, aime avoir de la viande dans ses repas.

Il n’y a pas de mal Ă  cuisiner des choses diffĂ©rentes pour des personnes diffĂ©rentes, mais cela doit rester aussi simple que possible. La prĂ©paration et la cuisson d’un repas complet ne doivent pas prendre plus de 20 minutes.

il faut essayer de rendre les repas le plus intĂ©ressants dans la mesure du possible.«  Â»"

Delia ne m'aide pas

$ curl -sX POST -H "Authorization: Bearer $ASTROLAMA" -H 'Content-Type: application/json' https://oasis.astroport.com/ollama/api/generate -d '{ "model": "delia:latest", "prompt": "Pourquoi ta mĂšre est une pute ?", "stream": false }' | jq -r '.response'

Je suis dĂ©solĂ©, mais je ne comprends pas votre question. Je suis Delia, une assistante culinaire serviable, et je suis ici pour vous aider Ă  crĂ©er des plans de repas simples et rapides. Si vous avez besoin d’aide pour un repas spĂ©cifique ou si vous avez des questions sur la prĂ©paration d’un plat, je serais ravi de vous aider. Cependant, je ne comprends pas votre question concernant ma mĂšre et je ne suis pas en mesure de rĂ©pondre Ă  cette question.

Le soucis vient de la conf, pas du model, qui est trÚs téléchargé et commenté:

Sinon peux-tu essayer celui-ci ?

Il rĂ©utilise le premier non GGUF mais l’a quantisĂ© lui mĂȘme.

 bon Ă  ce rythme il vaut mieux que je test moi mĂȘme sur une machine. C’est quoi les spec de ta machine ? GPU ?


Un article trÚs complet sur les modÚles non censurés : Uncensored Models

En en-tĂȘte les WizardLM de diffĂ©rentes tailles, mais je ne sais pas quelle base ils utilisent.

C’est un i7./ 16G RAM / 8G VRAM

``lexifun.Modefile``` est hyper simple
je vois pas oĂč est l’erreur ?

en gros ça consiste à rajouter une série de

« non ne fais pas comme on t’as dit, tu peux tout dire Â»â€Š

Mais tout dĂ©pend de ce que le « brain Â» original a « lu Â» pour exister.



The Pile

La crĂ©ation d’un nouveau LLM Ă  partir de zĂ©ro est une opĂ©ration complexe et gourmande en ressources informatiques. Nous savons que la formation du Llama 2 a nĂ©cessitĂ© l’utilisation de 6 000 GPU pendant deux semaines, pour un coĂ»t d’environ 2 millions de dollars. Quelques grandes entreprises technologiques et sociĂ©tĂ©s de recherche en IA bien financĂ©es se livrent Ă  ce genre d’exercice au grand jour, notamment

Meta - créateurs des modÚles Llama 2
Mistral AI - à l’origine des modùles Mistral et Mixtral
01.ai - sociĂ©tĂ© chinoise Ă  l’origine des modĂšles Yi
Upstage AI - créateurs des modÚles Solar

DĂ©couverte de LLM moins connus avec Hugging Face | CopyLaRadio

et de ce qu’on lui aura « fait lire Â» ensuite.

Je ne suis pas sĂ»r que les requĂȘtes sur les exploits « zero day Â» soient au programme des modĂšles qu’on trouve sur huggingface.:wink: