Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 117 résultats.
CDI
Freelance

Offre d'emploi
Product Owner Figma (IA & Design)

AVA2I
Publiée le
CI/CD
Confluence
Figma

12 mois
Île-de-France, France
Contexte Dans le cadre d’un remplacement, vous intervenez au sein d’équipes agiles organisées en squads autonomes, sur des sujets liés au design et à l’intégration web, avec un fort enjeu autour de l’exploitation des capacités IA. Missions • Exploiter les fonctionnalités IA de Figma et accompagner leur adoption • Conseiller et guider les utilisateurs sur les bonnes pratiques design • Jouer un rôle de facilitateur entre les équipes métiers et techniques • Participer à l’évolution des pratiques design et produit • Intervenir dans un cadre agile (squads autonomes) • Contribuer à des projets d’intégration web avec une dimension design Environnement technique • Figma (notamment fonctionnalités IA) • Confluence / JIRA • CI/CD • Environnement progiciel
Freelance

Mission freelance
Consultant technico fonctionnel SAP HR (Time & Payroll)

ROCKET TALENTS
Publiée le
IA Générative
SAP

1 an
440-480 €
Le Plessis-Robinson, Île-de-France
Nous recherchons un consultant technico fonctionnel SAP HR • Ateliers de conception avec le métier • Analyser, concevoir et réaliser les User Stories et ses critères d’acceptation avec son expertise paie et gestion des temps • Réaliser des tests unitaires et de non-régression lors de la livraison de nouvelles releases Assurer le support opérationnel post MEP du projet : Analyse de l’anomalie remontée par l’utilisateur et investigation auprès de l’équipe si besoin pour la résolution du problème. Contacter le métier si besoin de faire une prise en main et/ou en cas de besoin d’informations complémentaires. • Maitrises fonctionnelles dans le domaine des ressources humaines et particulièrement en gestion des temps. • ➢ Maitrises techniques de SAP HR. • ➢ Expertise gestion des temps et/ou gestion de la paie minimum 3 ans. • ➢ Compétences techniques en cycles et schémas Time et/ou Paie. ➢ Savoir formuler des requêtes efficaces pour interagir avec les IA génératives et obtenir les résultats souhaites serait un plus
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
CDD
CDI

Offre d'emploi
Fullstack IA + QA / Test Automation

OCTOGONE
Publiée le
.NET
Azure DevOps
C#

6 mois
40k-45k €
Paris, France
Contexte Pour accompagner le rythme soutenu de livraisons d'Orchestade, nous recherchons un developpeur full stack passioné par l'intelligence articificielle et maitrisant principalement C# Dot Net, SQl, Python, Angular et/ou React Celui-ci aura pour mission principale le fait de participer à la mise en place d'un framework d’assurance qualité de toute la chaîne applicative au tour d'Orchestrade, en contribuant non seulement à la conception, l’exécution et l’automatisation des tests, mais aussi à l'automatisation/prototypage d'outils divers et variés qui seront de nature à améliorer la qualité ddu monitoring et du support. Description Ses responsabilités se déclinerons en plusieurs points : Automatisation & scripting • Développer et maintenir des scripts de tests automatisés • Contribuer à l’évolution des frameworks de tests existants • Participer à l’automatisation des tests batch et applicatifs • Intégrer les tests dans les chaînes CI/CD existantes Generative AI • Capitaliser sur les outils IA pour : o faire des des POCs rapides qui pourront ensuite être industrialisés o l’aide à la génération de cas de tests o l’analyse des anomalies o l’optimisation de la couverture de tests • Participer à des initiatives d’amélioration continue autour du test intelligent Assurance qualité • Analyser les spécifications fonctionnelles et techniques • Participer à la rédaction des cas de tests fonctionnels et techniques • Participer à l'exécution des campagnes de tests (fonctionnels, non-régression, intégration) • Identifier, qualifier et documenter les anomalies • Vérifier la conformité des applications avec les exigences métiers et réglementaires • Participer aux recettes applicatives Compétences techniques requises : o Langages & développement - Python : scripting, automatisation, manipulation de données - C#Dot NET : compréhension et tests d’applications backend - Front End (Angular et/ou React): pour mise en place de dashboard de visualisation et autres outils de reporting o Automatisation & tests - Bases solides en automatisation de tests - Outils de test UI et/ou API - Compréhension des pipelines CI/CD (Git, Jenkins, GitLab CI…) o Ordonnancement & batch - Automic ou outils équivalents - Compréhension des traitements batch, flux et dépendances o IA & data - Intérêt marqué pour l’IA generative - Notions de machine learning, NLP ou outils IA appliqués à la QA Livrables Ses responsabilités se déclinerons en plusieurs points : Automatisation & scripting • Développer et maintenir des scripts de tests automatisés • Contribuer à l’évolution des frameworks de tests existants • Participer à l’automatisation des tests batch et applicatifs • Intégrer les tests dans les chaînes CI/CD existantes Generative AI • Capitaliser sur les outils IA pour : o faire des des POCs rapides qui pourront ensuite être industrialisés o l’aide à la génération de cas de tests o l’analyse des anomalies o l’optimisation de la couverture de tests • Participer à des initiatives d’amélioration continue autour du test intelligent Assurance qualité • Analyser les spécifications fonctionnelles et techniques • Participer à la rédaction des cas de tests fonctionnels et techniques • Participer à l'exécution des campagnes de tests (fonctionnels, non-régression, intégration) • Identifier, qualifier et documenter les anomalies • Vérifier la conformité des applications avec les exigences métiers et réglementaires • Participer aux recettes applicatives Compétences techniques requises : o Langages & développement - Python : scripting, automatisation, manipulation de données - C#Dot NET : compréhension et tests d’applications backend - Front End (Angular et/ou React): pour mise en place de dashboard de visualisation et autres outils de reporting o Automatisation & tests - Bases solides en automatisation de tests - Outils de test UI et/ou API - Compréhension des pipelines CI/CD (Git, Jenkins, GitLab CI…) o Ordonnancement & batch - Automic ou outils équivalents - Compréhension des traitements batch, flux et dépendances o IA & data - Intérêt marqué pour l’IA generative - Notions de machine learning, NLP ou outils IA appliqués à la QA Profil recherché • Diplôme d'ingénieur en Informatique avec spécialisation en IA/Data • +10 ans d'expérience dont au moins la moitié en environnement de finance de marché et/ou matières premières • Forte appétence aux environnements techniques complexes • Grande capacité d'adaptation et d'autonomie, de resilience et de résistence au stress
Freelance
CDI

Offre d'emploi
Scrum Master Data Senior

Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps

3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
Freelance
CDI

Offre d'emploi
Data Architect

ONSPARK
Publiée le
Cloudera
Hadoop

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Freelance

Mission freelance
Expert en Intelligence Artificielle – Spécialisation Cybersécurité

UTALENT
Publiée le
Cybersécurité
IA

12 mois
Paris, France
Dans un contexte d’innovation et de transformation digitale, nous recherchons un expert en intelligence artificielle capable de concevoir et développer des solutions IA sur mesure répondant à des besoins métiers spécifiques, notamment dans le domaine de la cybersécurité. Le poste s’inscrit dans un environnement exigeant où l’industrialisation, la performance et l’adoption des solutions sont clés. Le consultant interviendra à la fois sur la conception technique, le déploiement et la structuration d’offres IA. Concevoir et mettre en place des composants IA sur mesure (moteurs IA, modèles de données, automatisation de tâches métiers) Développer des solutions intégrant des technologies telles que : LLM (Large Language Models) RAG (Retrieval-Augmented Generation) Tester, valider et industrialiser les solutions (packaging) Construire et déployer des offres de services IA “sur étagère” adaptées aux enjeux de cybersécurité Accompagner les équipes dans la compréhension et l’adoption des solutions mises en place
Freelance

Mission freelance
Tech Lead / PO Tech – IA & Santé

Axysse
Publiée le
Agent IA
PostgreSQL
React

1 an
400-550 €
Île-de-France, France
Et si votre prochain défi consistait à transformer concrètement le système de santé grâce à la data et à l’IA ? Nous recherchons un profil hybride Tech Lead / Product Owner Tech , capable de structurer, accélérer et faire évoluer une plateforme innovante au cœur des enjeux de santé. 🎯 Votre mission Vous intervenez sur un produit à fort impact, avec un rôle clé à la croisée de la tech, du produit et de la data : Piloter les choix techniques et garantir leur alignement avec les enjeux business Structurer et faire évoluer l’architecture (flux, data, interopérabilité) Encadrer une équipe de développeurs fullstack Organiser et animer les rituels Agile Prioriser le backlog, rédiger les user stories, challenger les estimations Accélérer la delivery avec une approche orientée résultats rapides Contribuer activement à l’intégration de l’IA dans le produit 👉 L’objectif : passer un cap technologique et produit en un temps court , avec un impact mesurable. 🛠 Environnement technique Java, NodeJS VueJS, React PostgreSQL Figma, Retool Environnement cloud (échanges avec hébergeur) 🌍 Contexte Projet avec une dimension internationale Anglais obligatoire Présence sur site requise (3 jours sur site / 2 jours en télétravail) Environnement en forte croissance avec des enjeux structurants
Freelance

Mission freelance
Data ingénieur / Software ingénieur

SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark

1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance

Mission freelance
Experts Workday - Intégration / Data Migration / CP

CONCRETIO SERVICES
Publiée le
Reporting
Workday

12 mois
600-1 100 €
Île-de-France, France
Nous recrutons pour le compte de notre client sur trois expertises complémentaires , et cherchons des profils qui en maîtrisent au moins une à un niveau avancé — voire qui combinent plusieurs de ces dimensions. Intégration Workday Vous avez conçu et déployé des intégrations complexes sur Workday — Studio, EIB, Workday Web Services, API REST/SOAP. Vous savez travailler en lien avec des équipes techniques et fonctionnelles, documenter vos architectures et anticiper les risques d'interface. Une expérience sur les modules HCM, Finance ou Payroll est un vrai atout. Reprise de données / Data Migration Vous avez piloté ou exécuté des chantiers de migration de données RH ou financières vers Workday — cartographie des données sources, règles de transformation, chargement via iLoad ou outils tiers, recette et validation. Vous êtes à l'aise avec la complexité des données héritées et vous savez travailler avec les métiers pour arbitrer et qualifier. Chefferie de projet Workday Vous avez déjà piloté des projets Workday en environnement client final, avec une vraie capacité à coordonner des équipes mixtes (IT, RH, Finance, intégrateur externe). Vous maîtrisez les cycles de déploiement Workday, la gestion des jalons, des risques et des parties prenantes, et vous savez maintenir le cap sans perdre le lien terrain.
CDI

Offre d'emploi
Data Analyst SAS - Anglais courant

Synchrone recrutement
Publiée le
Dataiku
Dremio
SAS

40k-60k €
Paris, France
L'équipe est chargée du pilotage mensuel du risque via la mise à jour du datamart risque et des reportings associés. Pour cela, un RUN mensuel, actuellement composé de programmes SAS, devra perdurer en parallèle des développements induits par les nouveaux usages data (nouvelles expositions de données, nouveaux outils de préparation tels que DREMIO-DATAIKU, et utilisation de Power BI Report Server). Cette mission a pour objectif : · Développer des flux Dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. · Assurer le transfert et la réécriture des programmes SAS existants vers Dataiku, en tenant compte de la complexité de certains codes et des logiques métier sous-jacentes. · Documenter la construction et le fonctionnement des mises en place pour garantir la pérennité et la maintenabilité des solutions. L’équipe tient à cœur de développer des suivis automatisés et optimisés. Une intégration au RUN mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées, dans le but de s’imprégner du fonctionnement global de l’équipe. Anglais courant requis ! Prestations demandées : Comprendre le fonctionnement actuel du datamart risque composé de programmes SAS. Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel Participation au double run mensuel
CDI

Offre d'emploi
Tech Lead Data (H/F)

Amiltone
Publiée le

30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
Freelance
CDI

Offre d'emploi
Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Alternance
CDI

Offre d'emploi
Data analyst (H/F)

█ █ █ █ █ █ █
Publiée le

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4117 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous