Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 756 résultats.
Freelance

Mission freelance
[URGENT] Cloud / Data Architect GCP (HPC) – Freelance - démarrage ASAP - 100% remote

Comet
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Migration

7 mois
500-670 €
Île de Clipperton, France
📍 Full remote 📅 Démarrage : ASAP ⏳ Durée : jusqu’à fin juin (phase 1) + prolongation possible jusqu’à fin d’année 📆 Charge : 5 jours / semaine --- 1. Contexte Dans le cadre de la transformation de ses activités R&D, notre client industriel accélère la migration de ses environnements vers Google Cloud Platform . Une première phase a déjà été menée avec succès : Roadmap définie Premiers use cases en production Adoption en cours côté équipes Objectif actuel : passer à l’échelle et industrialiser la plateforme data & HPC. 2. Mission Vous rejoignez une petite équipe experte (3-4 personnes) avec un rôle clé pour : Finaliser et affiner l’architecture cible sur GCP Concevoir et déployer une plateforme data / HPC scalable Accompagner la migration d’applications Data & HPC depuis l’on-premise Apporter un support technique avancé aux équipes Participer à la montée en compétences des équipes R&D et IT Interagir avec des profils scientifiques et métiers Vous interviendrez à la fois sur l’architecture et l’implémentation . 3. Environnement technique ☁️ Cloud : GCP (BigQuery, Cloud Run, Pub/Sub…) ⚙️ Orchestration : Kubernetes / GKE, Cluster Toolkit 🧱 Infrastructure as Code : Terraform 🐍 Langages : Python 🧪 Workloads : Data & HPC (calcul scientifique / industriel) 🔁 Workflow : Nextflow (un plus)
Freelance
CDI

Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F

HAYS France
Publiée le
Data analysis
Data management
Data quality

1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
Freelance

Mission freelance
Ingénieur Systèmes & Réseaux (Linux)

HAYS France
Publiée le
Ansible
Automatisation
AWS Cloud

3 ans
Schiltigheim, Grand Est
Notre client, acteur reconnu de la protection sociale spécialisé dans la gestion de contrats d’assurance, d’épargne et de prévoyance, s’appuie sur des équipes pluridisciplinaires pour délivrer des services fiables, performants et en amélioration continue. Dans ce contexte, il recherche un Ingénieur Systèmes & Réseaux pour intervenir en régie au sein de l’équipe technique. Missions principales : Concevoir et mettre en œuvre des architectures Linux/RedHat Assurer le MCO niveau 2/3 Automatiser les déploiements et opérations (Ansible, Bash/Python) Participer aux choix technologiques et analyses d’impact Appliquer les remédiations de sécurité Gérer et résoudre les incidents complexes Compétences techniques recherchées : Linux / RedHat Architecture systèmes, virtualisation et réseau Automatisation (Ansible, scripting) Sécurité & firewalling (Palo Alto, Stormshield…) Gestion de projet technique Cloud hybride (Azure, AWS, environnements privés)
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
CDI

Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur EnergieH/F

JEMS
Publiée le

45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Energie H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques de l'Energie • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur de l'Energie • Prévoir les tendances du marché d'Energie et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : vu8w7m88rl
CDI

Offre d'emploi
Superviseur Business Intelligence - Data Analyst F/H (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Figma

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de Projet Data & IA (H/F)

AGH CONSULTING
Publiée le
Data analysis
IA Générative
Méthode Agile

1 an
480-520 €
Montrouge, Île-de-France
Vous intégrerez l'équipe Gestion de Projets de notre client, pour réaliser les missions suivantes : - Avec l'ensemble des parties prenantes (métiers, IT, CISO, juridiques, Data Scientists, Data Engineer...), gérer des projets Data, IA et IA Générative répondant aux besoins des métiers, en respectant la méthodologie certifiée et labélisée du DataLab Groupe : o Etude d'opportunité et cadrage, o Pilotage de la réalisation jusqu'à la mise en production à l'échelle, en assurant un reporting auprès des sponsors et de votre Direction, o Suivi du déploiement et de l'utilisation des solutions par les utilisateurs finaux, o Accompagnement de la montée en compétences des équipes des entités. - Contribuer à l'amélioration continue de la méthodologie, - Participer à l'animation de la communauté des experts Data & IA (webinars, Clubs, Groupe de Travail...), et à l'acculturation des collaborateurs, managers et dirigeants du Groupe, et au rayonnement des réalisations Data et de l'IA du client au travers d'événements externes (salons, conférences, communautés...).
Freelance

Mission freelance
Data Analyst confirmé

Codezys
Publiée le
Data visualisation
PySpark
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Freelance

Mission freelance
Data architecte / Expert Snowflake

Codezys
Publiée le
Apache Airflow
Kubernetes
Python

12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Directeur de Programme Data

CONCRETIO SERVICES
Publiée le
Data management
Jira Align

12 mois
400-600 €
Pays de la Loire, France
Dans le cadre d'une stratégie de digitalisation ambitieuse, notre client — un grand groupe financier — lance la Saison 2 d'un portefeuille de 15 solutions nativement digitales à déployer en 18 mois. L'objectif : mettre à disposition des clients des parcours de souscription et de gestion de produits 100% digitaux, à grande échelle. Un programme transverse qui mobilise 24 tribus, 10 Pôles Utilisateurs et plus de 12 entités du groupe. Une machine en mouvement, forte des succès de la Saison 1, qui cherche maintenant à accélérer. Votre mission Au cœur du dispositif de pilotage, vous êtes le garant de la delivery : Sécuriser le lancement de la Saison 2 : cadrage des Business Epics, structuration dans les outils (JIRA Align), embarquement des parties prenantes Piloter la fabrication en lien direct avec les Leaders de Tribu : planification, suivi des engagements délais/budget/qualité, arbitrages Animer la gouvernance : comités de pilotage, reporting Direction Générale, coordination faîtière Groupe Gérer les risques : identification, qualification, plans de mitigation, escalade si nécessaire Contribuer à la capitalisation : post-mortem, bonnes pratiques, recommandations pour les programmes futurs
Freelance

Mission freelance
251160/Développeur Python / GCP

WorldWide People
Publiée le
Google Cloud Platform (GCP)
Python

6 mois
Paris, France
Développeur Python / GCP Excellente maitrise : BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, et GCS. - Bonne maitrise de la partie DevOps : XLD, Terraforme, jenkins - Bonne communication, autonomie et fluidité du travail en équipe. Contexte / Objectifs : Mise en place du projet "Risques Climatiques & Physiques" une solution visant à ingérer, agréger et exposer des données de sources multiples afin de produire les rapports Métier sur le scope de la surveillance du risque de crédit. La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Une expérience dans le domaine du Risques de crédit est appréciée. Le projet étant stratégique et à forte visibilité, les critères d'expertises techniques décrites dans cet Appel d'Offre sont à respecter impérativement. Objectifs et livrables Expertises spécifiques : Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Excellente maitrise : BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, et GCS. - Bonne maitrise de la partie DevOps : XLD, Terraforme, jenkins - Bonne communication, autonomie et fluidité du travail en équipe.
Freelance
CDI
CDD

Offre d'emploi
AI Engineer - Agentic Systems

LEVUP
Publiée le
Python

12 mois
Île-de-France, France
AI Engineer – Agentic Systems Description du poste Conception et développement de systèmes d’agents IA basés sur des LLM, capables de raisonner, planifier et interagir avec des outils externes dans des workflows multi-étapes. Responsabilités principales Concevoir et développer des systèmes agentiques basés sur des LLM pour des cas d’usage complexes Mettre en place des pipelines de Retrieval-Augmented Generation (RAG) pour l’accès à des données structurées et non structurées Implémenter des stratégies de raisonnement avancées (ReAct, multi-step reasoning) Développer des mécanismes de tool calling et d’intégration d’APIs externes Gérer la mémoire des agents (court terme / long terme) pour améliorer la cohérence et la performance Optimiser les performances via des techniques de prompt engineering et d’optimisation itérative (DSPy, reflective prompting) Orchestrer des workflows multi-agents avec des logiques de planification et d’exécution Collaborer avec les équipes produit et techniques pour intégrer les agents dans des systèmes existants Stack technique Frameworks : LangChain, LangGraph, DSPy Concepts : RAG, ReAct, agent orchestration, prompt engineering, reflective optimization Modèles : APIs LLM (type OpenAI API ou équivalent) Langages : Python (principal), JavaScript/TypeScript (optionnel) Profil recherché Expérience en développement d’applications basées sur des LLM Bonne compréhension des architectures d’agents IA et des systèmes distribués Capacité à concevoir des workflows complexes et autonomes Maîtrise du prompt engineering et des techniques d’optimisation Esprit analytique et orienté résolution de problèmes
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Alternance
CDI

Offre d'emploi
ALTERNANCE - BAC+5 : DATA ANALYST et préparation/réalisation d'arrêt de tranche F/H

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Montévrain, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Ops Engineer

VISIAN
Publiée le
Ansible
DevOps

1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Freelance

Mission freelance
POT9036 - Un Data ingénieur sur Massy

Almatek
Publiée le
SQL

6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2756 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous