Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 148 résultats.
Freelance

Mission freelance
Data Engineer AWS / Databricks

Groupe Aptenia
Publiée le
AWS Cloud
Databricks
Python

3 ans
450-500 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

CDI
Freelance

Offre d'emploi
Chef de projet Data Finance

VISIAN
Publiée le
Dataiku
Oracle
SAP

3 ans
40k-55k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons un Senior Project Manager (H/F) expérimenté pour piloter un projet stratégique à forte dimension analytique et financière. Vous serez responsable du suivi des livrables, délais et budgets, de l’animation des parties prenantes (Finance, Data, IT, Produits) et de la coordination des équipes. Vous interviendrez également sur l’ analyse de données financières complexes , la synthèse des résultats pour le management, ainsi que sur l’ automatisation de processus critiques en lien avec les équipes Data.

CDI

Offre d'emploi
Data Engineer (h/f)

emagine Consulting SARL
Publiée le

45k-49k €
75017, Paris, Île-de-France

Résumé : Ce poste de Data Engineer a pour but principal d'analyser les besoins métiers afin de créer des indicateurs clés de performance (KPI) et de les visualiser à l'aide de Power BI. Responsabilités : Vous serez chargé de traduire les besoins métiers en solutions techniques et de garantir la qualité des données. Les principales responsabilités comprennent : Traduire les besoins métiers Rédiger les spécifications techniques à partir des besoins d'affaires Récupérer les données via des tickets Transformer les données sur Talend Faciliter et mettre en place les KPI Créer des dashboards complexes et appliquer des filtres sur Power BI Comprendre les cubes Azure Must Haves : Les compétences et qualifications suivantes sont obligatoires : Expérience avec Power BI Compétences en Talend Connaissance des cubes Azure Expérience en rédaction de spécifications techniques Nice to Have : Les compétences complémentaires qui seront un plus : Expérience en data engineering dans le domaine d'activité spécifique Connaissance des méthodologies Agile Compétence en data visualization Autres Détails : * Lieu : 75 * Prestation : temps plein hybride (3 jours sur site, 2 jours télétravail, modulables) * Démarrage : ASAP * Durée : 03 à 36 mois

Freelance

Mission freelance
Data Scientist / Ingénieur IA

KEONI CONSULTING
Publiée le
Python

18 mois
100-500 €
Paris, France

CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Data Management,Data Scientist Spécialités technologiques : Machine learning, IA generative, NLP Compétences Technologies et Outils Python Soft skills Autonomie MISSIONS Objectifs et Enjeux : Le département de notre client est organisé autour de l'acquisition et de la gestion des données des profils des candidats et du rapprochement avec les offres et a besoin de se renforcer avec un profil d’ingénieur IA. Au sein de l'équipe, vous interviendrez sur un domaine de données stratégiques (fiches de compétences et rapprochement candidats / offres). Vous travaillerez en lien étroit avec l’architecte et les experts data, les métiers de l'emploi et du recrutement, ainsi qu'avec les équipes techniques gérant les systèmes existants Votre rôle sera de concevoir, expérimenter et intégrer des solutions d'IA et d'IA génératives permettant de mieux exploiter les données métiers et d'améliorer les capacités de matching. Vous jouerez un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l'optimisation des performances. Vous devrez allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, vous allez travailler en forte autonomie sur les projets qui vous seront confiés. Cette mission s'inscrit dans une ambition stratégique, au coeur de la transformation data de l'organisation. Activités à réaliser : - Concevoir et mettre en oeuvre des algorithmes de traitement du langage naturel (NLP) et de machine learning pour analyser et rapprocher des objets métiers (exemple : des offres d'emploi, des fiches de compétences). - Développer des pipelines de données pour extraire, préparer et vectoriser les informations (intitulés, codes, compétences, savoir-faire, savoirs, savoir-être.). - Expérimenter et comparer différentes approches de similarité sémantique (embeddings, distances, modèles supervisés). - Mettre en place des algorithmes de classification d’objets métier tels que les fiches afin d’en décliner des matrices d’affinités utiles pour le SDR. - Travailler en intégration avec les briques IA/GenAI déjà présentes en interne (LLMs, bases vectorielles, frameworks IA). - Assurer la qualité, la traçabilité et la robustesse des développements IA (tests, documentation, reproductibilité). - Collaborer avec les équipes métiers pour définir les critères de succès et valider la pertinence des résultats. - Préparer et présenter les résultats des expérimentations lors des phases de POC et de déploiement. Expertise souhaitée A minima 6 ans dans des projets IA/NLP, idéalement dans un contexte de matching, recherche d’information, RH/emploi. Compétences requises : - Expertise en Algorithmique - Expertise en Python - Bonne maitrise des modèles d'IA Générative

Freelance

Mission freelance
Data Engineer - Azure

VISIAN
Publiée le
Architecture
Azure
Azure Data Factory

1 an
400-570 €
Île-de-France, France

Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.

Freelance

Mission freelance
Data engineer (Power BI, ADF, Snowflake) H/F

LeHibou
Publiée le
Alteryx

6 mois
400-500 €
Lavaur, Occitanie

Notre client dans le secteur Santé et pharma recherche un/une Data Engineer H/F Description de la mission: Notre client souhaite renforcer son effectif avec un freelance possédant des compétences en développement Data. Rattaché au Directeur Service Data Intégration, votre rôle sera d'implémenter et industrialiser les pipelines pour collecter, nettoyer, modéliser, cataloguer et restituer des données afin de les rendre accessible tout en veillant à leur qualité. 1. Concevez des solutions pour collecter, transformer et exploiter des gros volumes de données. 2. Participez à l’industrialisation des traitements et à leur amélioration continue, au monitoring pour qu’ils soient fiables, robustes et performants afin de répondre aux exigences métiers 3. Implémenter et opérer les projets Data et Analytics centraux sur une plateforme mutualisée (Data Platform) 4. D'assurer le run des projets Data & Analytics centraux en second niveau derrières les équipes en charge. 5. Vous assurez une veille technologique afin d’être à la pointe des connaissances en matière de data et de participer à la définition de la Roadmap technologique Data & Analytics. Environnement technique attendus : • Tableau Software : Pour la visualisation et l'analyse de données. • Alteryx : Pour la préparation et l'automatisation des flux de données. • Snowflake : Pour la gestion des bases de données. • Matillion : Pour les processus ELT. • Azure Data Factory : Pour l'intégration et l'orchestration des données. • Airflow : Pour l'orchestration des workflows. • MS Fabric – Power BI : Pour la gestion des données et des analyses. • Denodo : Pour la virtualisation des données.

Freelance
CDI

Offre d'emploi
Data Analyst (SQL, Business Liaising & Tableau) - Bilingue Anglais

Trait d'Union Consulting
Publiée le
Data analysis
Tableau software

1 an
40k-50k €
400-600 €
Issy-les-Moulineaux, Île-de-France

🎯 Objectif global du poste Dans le cadre du renforcement de notre Data Centre of Excellence (CoE) , nous recherchons un·e Data Analyst pour rejoindre notre équipe de 10 personnes. L’objectif principal de ce rôle est de collecter, analyser et interpréter des données complexes afin de : Soutenir la prise de décision business, Améliorer la qualité et la cohérence des données publiées, Répondre aux besoins des équipes métier. Le·la Data Analyst travaillera au sein de la tribu data , en étroite collaboration avec les Business Analysts pour : Mener des analyses exploratoires et approfondies (deep dive), Accompagner les utilisateurs dans l’adoption des produits data et des solutions analytiques, S’assurer que les données publiées respectent les standards de qualité attendus. Il ou elle jouera également un rôle clé dans le recueil des besoins métier et le déploiement des produits data, contribuant ainsi à l’impact business global du CoE.

Freelance
CDI

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
AWS Cloud
Python

210 jours
60k-91k €
560-610 €
Paris, France

Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Freelance

Mission freelance
Testeur QA Data

Cherry Pick
Publiée le
Data analysis
Microsoft Power BI
Postman

36 mois
380-430 €
Paris, France

Testeur confirmé avec des compétences de Data Analyste En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le domaine de la Data est nécéssaire Vous serez amené à tester : collecte et ingestion des données vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) vérifications des règles de gestion des zones capitalisation et factorisation Vérification de la restitution des données dans les reportings Profil : De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important" Méthodes & outils nécéssaires Outils de gestion des tests/anomalies : Jira , Xray . Chaînes CI/CD : Microsoft Azure . Plateforme : Databricks . Tests API : Postman . Restitution : Power BI . Profil attendu : technico-fonctionnel , à l’aise sur la collecte et ingestion de données, tests de flux et tests de surface en production.

Freelance

Mission freelance
Expertise en sécurité Opérationnelle - N4

Signe +
Publiée le
CI/CD
Firewall
Google Cloud Platform (GCP)

4 mois
580-700 €
Paris, France

Accompagner la mise en œuvre de la sécurité du cloud GCP Contrainte forte du projet Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Le livrable est - Compétences techniques Sécurité GCP - Expert - Impératif Sécurité réseaux (firewall, proxy, NSG, WAF) - Confirmé - Important Dev. Terraform, Python - Confirmé - Important IAM GCP - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Évaluer les services GCP sur les aspects de sécurité selon les règles BPCE IT et identifier les points de contrôle. Implémenter les contrôles de sécurité sur les outils de sécurité (CSPM, Sentinel HashiCorp, outil de gouvernance, …). Qualifier et étudier les évolutions des services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes de sécurité sont signalés. Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations de sécurité. Gérer les incidents et le suivi des non-conformités.

CDI

Offre d'emploi
Chef de projet Data / IA

CAT-AMANIA
Publiée le
AWS Cloud

1 an
40k-68k €
460-660 €
Paris, France

1/ immédiatement après recrutement : support au suivi du périmètre historique de la squad usage Data & IA 2/ Suivi des chantiers sur les usages (livraisons, jalons clés, suivi proactif avec les parties prenantes internes) avec un focus sur l’IA pour le Marketing (proposition de cas d’usages, étude de faisabilité, matrice valeur x effort, anticipation des renforts…) 3/ en lien avec le 2/ capacité à rentrer dans les sujets et apporter une expertise permettant d'être au rendez-vous de chaque jalon prévisionnel de livraison 4/ Préparation et animation des réunions avec les responsables métiers du Pôle Utilisateurs Data : avancement des différents sujets et priorisation des cas d'usages 5 / Echange / Reporting auprès des PO et du leader de la tribu Data Factory

Freelance

Mission freelance
Data Analyst DATAIKU

KEONI CONSULTING
Publiée le
CRM
PowerBI
SQL

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : CRM, Business Intelligence Description et livrables de la prestation Objectif de la mission : - Observer et analyser les données disponibles dans le CRM. - Identifier, à l’aide des indications fonctionnelles fournies par l’AMOA, les informations pertinentes pour le business : types de données disponibles, indicateurs exploitables, possibilités de croisements, limites éventuelles, etc. - Se poser la question clé : quelles données avons-nous réellement à disposition ? Finalité : - Construire des tableaux de bord sous Power BI afin de : - Aider le business à prendre des décisions éclairées. - Mettre en évidence des points de blocage ou d’inefficacité. - Proposer des améliorations concrètes des processus métiers (par exemple : gestion des ruptures de médicaments). Expertise souhaitée À l’aise avec Dataiku et PowerBI (utilisation courante, expertise avancée non requise) Maturité métier : excellente expérience en analyse de données CRM Compétences relationnelles : très bon relationnel, collaboratif avec les métiers et la MOA Force de proposition et grande autonomie Expérience concrète dans des missions d'exploration approfondie de données, prédominance CRM Maîtrise du requêtage SQL ; capacité à croiser des données complexes Sens du service : compréhension des enjeux métiers et restitution adaptée

Freelance
CDI

Offre d'emploi
Data Engineer SQL Server (T-SQL)

HIGHTEAM
Publiée le
BI
Microsoft Power BI
OLAP (Online Analytical Processing)

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives

Freelance

Mission freelance
Data Scientist

Cherry Pick
Publiée le
BigQuery
Python
Streamlit

3 mois
650-700 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.

Freelance

Mission freelance
FREELANCE – Ingénieur IA et Data (H/F)

Jane Hope
Publiée le
IA Générative
Machine Learning
Python

9 mois
450-550 €
Biot, Provence-Alpes-Côte d'Azur

Notre client basé à Biot (06) est à la recherche d’un Ingénieur IA & Data (H/F) freelance pour l’accompagner sur un nouveau projet. MISSIONS Dans le cadre de l’intégration concrète de l’IA dans leur solutions SaaS B2B, notre client recherche un Ingénieur Intelligence Artificielle / Data Scientist (H/F) pour structurer et porter les projets IA en lien avec la R&D, les équipes produits et besoins clients. · Veille et expérimentation autour des technologies LLM, IA générative et outils Open Source. · Prototypage de solutions IA autour de cas concrets : analyse de documents réglementaires, extraction d‘informations, recommandations, détection d’anomalies, scoring,... · Exploration & modélisation : identification des cas d’usage pertinents, choix des modèles (ML / NLP / LLM / VLLM…), fine-tuning et évaluation des performances · Application de techniques avancées telles que le NER (Named Entity Recognition), le structured output, la function calling et la modélisation par chain of thought reasoning. · Intégration applicative avec les développeurs back-end (PHP/Symfony), ou via des micro-services (FastAPI…). · Utilisation d’agents IA : pour automatiser certaines interactions et enrichir l’expérience utilisateur. · Développement assisté par IA : adoption d’outils comme Cursor ou Github Copilot pour accélérer et fiabiliser le code. · Documentation des méthodes, modèles et résultats pour assurer la pérennité et la transparence des projets. · Participation aux rituels Agile SAFe : PI Planning, daily, reviews, rétrospectives… ENVIRONNEMENT TECHNIQUE · IA / Data : Python, Pandas, Scikit-learn, Hugging Face, FastAPI, OpenAI API, PyTorch, TensorFlow. Nous sommes ouverts sur les langages, outils et bibliothèques. · Bases de données : MariaDB, PostgreSQL, MongoDB, Elasticsearch, vectorielles (Chroma, Activeloop…), graphes (Neo4J…) · DevOps : Docker, Swarm>Kubernetes, GitLab CI/CD · Environnement général : PHP / Symfony, Vue.js 3 / TypeScript, Jira, Confluence, architecture microservices en évolution

Freelance

Mission freelance
Data & AI team SAP - Paris

EBMC
Publiée le
SAP

6 mois
Paris, France

Une entreprise internationale de premier plan dans le secteur des boissons, reconnue pour la qualité de ses produits et sa présence mondiale, lance un vaste programme de transformation digitale autour de SAP S/4HANA en mode Greenfield . Dans ce cadre, elle renforce son équipe Data & AI et recherche un SAP Data Migration Domain Lead . Ce rôle stratégique vise à piloter de bout en bout le volet migration de données, un élément central pour garantir le succès du déploiement. L’environnement est exigeant, multiculturel et fortement orienté vers la performance, ce qui nécessite une solide expertise technique, une vision structurante et une capacité à coordonner des parties prenantes variées.

2148 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous