L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 335 résultats.
Mission freelance
POT8759 - Un Expert DATA IA Sénior sur Gare de Lyon
Publiée le
Shell
6 mois
260-480 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un des ses clients un Expert DATA IA Sénior sur Gare de Lyon. Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
Mission freelance
Expert IA / CP Cybersécurité (Sénior)
Publiée le
Cybersécurité
Data governance
Data Lake
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
Architecte Kubernetes OpenShift - Expert
Publiée le
Administration réseaux
Apache
Apache Kafka
12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre du renforcement d’une équipe SRE / Plateforme Cloud au sein d’un environnement complexe et critique, nous recherchons un Expert Cloud DevOps / Architecte Kubernetes & OpenShift . Le consultant interviendra sur la conception, l’industrialisation et la sécurisation de plateformes cloud natives, orientées microservices, data et haute disponibilité . Missions principales Architecture & Design Définir et valider l’architecture Cloud & Kubernetes en tant que Design Authority Élaborer les HLD (High Level Design) et LLD (Low Level Design) Concevoir l’architecture centrale et les standards de la plateforme Participer aux choix technologiques et aux roadmaps techniques Cloud & Conteneurisation Déployer et maintenir des clusters Kubernetes (AKS, EKS, OpenShift, Rancher) Expertise Red Hat OpenShift Mise en œuvre de plateformes cloud sur Azure (AKS) et AWS (EKS) Gestion des environnements hybrides / on-premise et data centers virtualisés DevOps & Automatisation Mise en place des pipelines CI/CD Automatisation des déploiements et de l’infrastructure (IaC) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Sécurité & Réseau Sécurisation des plateformes Kubernetes et Cloud Gestion des secrets et identités ( HashiCorp Vault ) Architecture réseau, segmentation, politiques de sécurité Conformité, durcissement et bonnes pratiques sécurité cloud Data & Streaming Conception et intégration de Data Platforms Mise en œuvre de solutions de streaming et de data flow : Apache Kafka Apache NiFi Intégration avec des workloads data, IA et ML ( TensorFlow ) Microservices & Observabilité Architecture et exploitation d’architectures microservices Supervision, monitoring et gestion de la performance Haute disponibilité et résilience des plateformes FinOps Pilotage des coûts Cloud Optimisation des ressources et mise en place de bonnes pratiques FinOps
Mission freelance
Data Analyst Informatica
Publiée le
Data analysis
Informatica
PowerBI
1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Mission freelance
Consultant IDR – Data Replication & Kafka (H/F)
Publiée le
Apache Kafka
5 jours
France
Télétravail 100%
Nous recherchons un consultant senior pour accompagner l’évolution d’un modèle de réplication de données vers une architecture Publish & Subscribe dans un environnement IBM. Missions principales : Analyser l’architecture de réplication existante. Configurer et optimiser CDCRE for Kafka . Paramétrer les User Exit et propriétés Kafka. Assurer la publication au format key/value. Stabiliser la chaîne de réplication et documenter les bonnes pratiques. Conseiller sur les évolutions cibles et les modèles de réplication adaptés.
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Mission freelance
Data Analyst Social Listening ( 4 ans xp)
Publiée le
Data analysis
IA Générative
120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Mission freelance
Scrum Master SAFe Data h/f
Publiée le
Agile Scrum
Safe
3 ans
400-620 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Pour notre client dans le secteur privé, nous recherchons un Scrum master SAFe confirmé (à minima 8/10 ans d'expérience). Le Scrum Master a pour mission d’accompagner et de faciliter le travail de son (ses) Agile Team(s) dans la structuration et la réalisation de ses (leurs) activités. Cette prestation d’assistance technique sera supervisée par le RTE et le coach du train SAFe Une certification est obligatoire: Scrum Master SAFE Scaled Agile + éventuellement RTE Scaled Agile ou SPC Scaled Agile.
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre d'emploi
Développeur Java H/F
Publiée le
Java
Spring
Spring Batch
1 an
45k-50k €
400-420 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Vos missions principales : · Recueillir et analyser les besoins · Proposer des solutions via des technologies performantes et durables · Garantir les bonnes pratiques de développement et la qualité logicielle · Participer à l'optimisation et à la gestion des l’obsolescence des technologies employées · Garantir la faisabilité technique des projets Mais également : · Analyser l’impact des nouvelles solutions dans le système d’information · Préconiser des choix techniques · Assurer viabilité, exploitabilité, évolutivité, faisabilité économique et adéquation des solutions aux besoins · Concevoir et valider l’architecture technique du système d’information · Participer à l’intégration du projet · Apporter un support technique aux projets
Mission freelance
Data Analyst (CRM Microsoft Dynamics & Power BI)
Publiée le
CRM
6 mois
400 €
Paris, France
Télétravail partiel
Intitulé du poste Data Analyst – Microsoft Dynamics & Power BI Missions principales Maîtriser l’environnement CRM Microsoft Dynamics et comprendre les modèles de données métiers associés. Assurer la maintenance évolutive et corrective des dashboards Power BI existants (optimisation, mises à jour, qualité des visuels). Concevoir et développer de nouveaux tableaux de bord adaptés aux besoins métiers, en intégrant les indicateurs clés de performance (KPI). Mettre en place des outils et règles de contrôle garantissant la qualité, la cohérence et la fiabilité de la donnée, tant dans le CRM que dans les tableaux de bord. Collaborer avec les équipes métiers pour comprendre leurs enjeux, traduire les besoins en spécifications analytiques et assurer un pilotage par la donnée fiable. Participer à l’amélioration continue du modèle de données et des processus d’alimentation du CRM et de Power BI. Livrables attendus Dashboards Power BI fonctionnels, documentés et maintenables. Documentation data (dictionnaire, mapping, règles de gestion, contrôles qualité). Rapports réguliers sur les KPI et analyses ad hoc. Plans d’actions data quality et suivi de leur mise en œuvre. Compétences techniques Microsoft Dynamics CRM : niveau expert Microsoft Power BI : expert (DAX, Power Query, modélisation, datasets) Conception et reporting KPI : expert Maîtrise de la pensée analytique : confirmé Connaissance des bonnes pratiques de data quality et gouvernance Compétences transverses Rigueur analytique & sens critique Capacité à vulgariser et restituer clairement des insights métier Autonomie dans la gestion des besoins et délais Aptitude à collaborer avec des équipes non techniques Langues Français : bilingue Anglais : opérationnel / requis Profil recherché Expérience confirmée en Data Analysis, idéalement dans un environnement CRM Capacité à travailler sur des sujets mêlant process métier, CRM et Business Intelligence Confort avec des environnements data complexes et des enjeux de qualité de données
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau
Publiée le
Data analysis
Dataiku
Product management
2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Offre d'emploi
Développeur Fullstack Data Java / Python / SQL
Publiée le
Automatisation
CI/CD
Cloudera
3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
1335 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois