Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 21 résultats.
Freelance
CDI

Offre d'emploi
4 Missions - Cloud & DevOps – Freelance / Portage - Lille - Longue durée

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)

3 ans
40k-50k €
100-460 €
Lille, Hauts-de-France

Pour l’un de mes clients, je recherche pour 4 missions ouvertes à Lille : CloudOps Engineer : Kubernetes, Terraform, AWS/GCP, scripting (Bash/Python/Go) DevOps AWS : Data Platform multi-cloud, AWS EKS, Terraform, Python (API REST), CI/CD Développeur Cloud Sénior : GCP, Terraform, Python, GitOps, développement plateforme interne DevOps Réseau / Public Network : Terraform, Python, GCP/AWS, sécurité (Firewall, DNS, WAF, LB) Conditions : Freelance ou portage salarial ( accompagnement possible sur votre passage en portage ) Mission longue (3 ans) Disponibilité max 1 mois Présence 3 jours/semaine sur Lille (non négociable) 3‑5 ans d’expérience sur un rôle similaire ou plus Si vous êtes intéressé et que votre profil correspond à la demande, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.

Freelance

Mission freelance
AI Engineer F/H - LYON (69)

LeHibou
Publiée le
Large Language Model (LLM)
Python
RAG

6 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes

Notre client dans le secteur Assurance recherche un AI Engineer H/F Descriptif de la mission: Mission : Concevoir, prototyper, industrialiser et maintenir des systèmes d'IA (RAG, agents IA, etc.) ainsi que la stack technique associée. Responsabilités principales : ● Prototypage : Évaluer et comparer les outils (outils d'agents IA, bases de données vectorielles, etc.) et les modèles pour choisir les plus pertinents selon les cas d’usage du client. Concevoir et configurer des solutions d’IA (agents IA, systèmes RAG, fine-tuning de LLM, modèles d’embeddings, etc.) pour automatiser les processus métier. Tester et itérer rapidement avec les équipes métier pour valider la faisabilité. ● Itérations avec les métiers : Travailler avec les équipes métier pour faire évoluer la documentation et les ressources contextuelles utilisées par les agents IA. Faire évoluer les workflows des agents et leurs prompts afin de répondre aux besoins métier et d’atteindre nos indicateurs de succès. ● Déploiement : Déployer des agents IA / LLM en production, et créer des intégrations robustes et scalables avec Salesforce, Covergo, Diabolocom, etc. Construire et maintenir des outils d’observabilité (logs et monitoring) sur la stack IA. ● Conformité / Sécurité : Garantir que les systèmes d’IA respectent les meilleures pratiques de sécurité. Compétences : Solides compétences en ingénierie / développement (Python, intégration d’API, gestion des erreurs). Bonne maîtrise pratique des outils d’automatisation multi-agents (N8N, Langchain, AI Crew) et des concepts associés (outils, contexte/RAG, serveur MCP, bases de données vectorielles, etc.), avec capacité à déployer des agents IA en production. Excellente expertise sur les modèles LLM et les fournisseurs (OpenAI/GPT, Google/Gemini, Anthropic/Claude, Mistral/Chat) ainsi qu’en ingénierie de prompt. Expérience en fine-tuning de modèles et en implémentation de systèmes RAG. Solides compétences en DevOps (containerisation & orchestration, monitoring & observabilité, sécurité & gestion des accès, CI/CD) et en LLMOps. Familiarité avec la plateforme cloud AWS et les produits liés à l’IA (SageMaker, Bedrock, Amazon Q, etc.). Esprit d’expérimentation et de "hacking", avec une forte volonté d’avoir un impact concret et d’itérer rapidement. Compétences / Qualités indispensables: LLM,Python,RAG,DevOps,AWS

Freelance

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

21 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous