L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 243 résultats.
Mission freelance
Chef de projet infra et réseaux H/F
TIBCO
Publiée le
Administration réseaux
1 an
500-550 €
75017, Paris, Île-de-France
1/Contexte : Le département Opérations du Groupe met en œuvre sa stratégie de migration vers le cloud et de rationalisation informatique. Dans ce cadre, la Cyberdéfense doit migrer les serveurs hébergeant ses produits de sécurité vers les environnements cibles. La Cyberdéfense recherche un prestataire de services de gestion de projet pour piloter cette migration. Nous avons besoin d'un service de gestion de projet pour organiser et piloter la migration de notre application métier vers les nouveaux serveurs techniques : planification, coordination avec les autres équipes (Atlas) et toutes les entités (France, Espagne, Italie, Belgique, Allemagne…), définition des tâches, préparation, exécution, suivi, gestion des incidents 2/Étendue des services : En étroite collaboration avec les chefs de produit, les équipes produit et le responsable du programme global, le service de gestion de projet assurera : - Migration efficace des serveurs de cyberdéfense vers les environnements cibles - Définir un plan de projet détaillant les étapes nécessaires à la migration des serveurs - Piloter l'exécution du plan de projet - Réaliser les activités de gestion de projet : lancement/initiation du projet, contrôle, gestion de la livraison du produit, gestion des limites des étapes. - Gérer le périmètre, les délais, les coûts, la qualité, les risques, les problèmes et l'approvisionnement - Gérer la communication et l'alignement avec les chefs de produit et les parties prenantes. Assurer un suivi étroit avec les entités 3/Livrables : - Planification de projet - Rapport d'état du projet - Registres des risques, des problèmes, des actions et des décisions - Compte rendu de réunion
Offre premium
Mission freelance
Data Analyst - Expert Excel VBA
Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA
12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans
Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop
3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre d'emploi
Data Analyst - Data Scientist
VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Mission freelance
Consultant SAP Datasphere
Nicholson SAS
Publiée le
Data visualisation
Gouvernance
Hortonworks Data Platform (HDP)
8 mois
680 €
Paris, France
Localisation : Paris / Remote Démarrage : ASAP Durée : Mission longue jusqu’au 31/12/2026 Contexte:Dans le cadre du développement d’une plateforme data basée sur SAP Datasphere , nous recherchons un consultant confirmé afin de contribuer à la conception, la modélisation et la gouvernance des données destinées aux équipes métiers (finance, supply chain, production, etc.). Vous interviendrez au sein d’une équipe data composée d’architectes, data engineers et experts SAP, sur des sujets d’intégration, de structuration et de valorisation des données. Missions: Analyse et cadrage Recueillir et analyser les besoins métiers. Identifier les indicateurs clés (KPI) et les besoins de reporting. Rédiger les spécifications fonctionnelles et techniques. Conception et modélisation Concevoir et structurer les modèles de données dans SAP Datasphere . Organiser les Spaces et structurer les modèles analytiques. Mettre en place des modèles dimensionnels (Star Schema / Snowflake). Intégration et transformation des données Configurer les connexions vers les différentes sources SAP et non-SAP. Mettre en place les Data Flows et Replication Flows . Réaliser les transformations, mappings et contrôles de qualité des données. Modèle sémantique et valorisation Définir les mesures, hiérarchies et relations entre les données. Structurer les datasets pour leur exploitation par les outils de reporting. Contribuer à la mise à disposition des données pour les équipes BI. Gouvernance et bonnes pratiques Participer à la gestion des métadonnées et à la documentation des modèles. Contribuer à la mise en place des bonnes pratiques de gouvernance et de qualité des données. Optimisation et amélioration continue Surveiller les performances des modèles et des flux de données. Optimiser les pipelines et la consommation des données. Participer aux évolutions fonctionnelles et techniques de la plateforme. Environnement technique: Data Platform SAP Datasphere SAP Business Technology Platform (BTP) Écosystème SAP SAP S/4HANA SAP BW / BW4HANA Data Engineering SQL (indispensable) ETL / ELT Modélisation dimensionnelle BI / Analytics SAP Analytics Cloud Power BI ou Tableau Profil recherché Expérience : 5 à 7 ans d’expérience sur des projets data / SAP. Compétences techniques Bonne maîtrise de SAP Datasphere . Solide connaissance de SQL et des concepts de transformation de données. Expérience en modélisation de données analytiques et dimensionnelles . Connaissance de l’écosystème SAP (S/4HANA, BW, BTP) . Expérience avec un outil de visualisation de données . Compétences fonctionnelles Capacité à traduire un besoin métier en modèle de données. Bonne compréhension des enjeux de qualité, structuration et gouvernance de la donnée . Soft skills Bon niveau de communication avec les équipes métiers et techniques. Esprit analytique et sens de la structuration. Autonomie et capacité à être force de proposition. Travail en équipe dans un environnement data.
Mission freelance
Data Engineer GCP (H/F)
CELAD
Publiée le
1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Chef de projet Innovation IA
Inventiv IT
Publiée le
Data science
Data visualisation
IA
6 mois
450-550 €
Île-de-France, France
Missions du Chef de projet Innovation IA : - Intervention sur l’ensemble du cycle de vie des projets : collecte et étude du besoin, cadrage, ateliers, bêta-tests, prototypage, etc. - Pilotage des projets : suivi de l’avancement des projets, des tâches à réaliser, coordination des équipes internes et externes. - Réalisation de tests IA : PoC et tests de solutions internes et externes d'IA pour répondre aux impératifs du développement de l’IA du quotidien et des supports - Animation des réunions projets : gestion et animation des réunions de suivi projets, favorisant la coordination et la communication entre les équipes et les décideurs. - Interface métier : être en mesure de coordonner l’intégralité des actions à mener pour assurer la réussite du projet, dans la mesure où elles concernent plusieurs directions ou département - Suivi des indicateurs de performance et amélioration continue : suivi et production de bilans récapitulatifs sur les statistiques et l'adoption des solutions, analyse des KPIs fonctionnels et techniques, fournitures d’éléments et d’information au responsable pour arbitrage des mesures à mettre en œuvre le cas échéant - Intégration des actions nécessaires de formation, d’acculturation et de communication dans le dispositif FAC de CorT-ex. Ex : production de tutos vidéo ou écrits pour la prise en main d’outils, de fonctionnalités ou de technologies, proposition de plan d’acculturation et de communication pour répondre aux enjeux des phases de tests et de pré-déploiement - Rencontres & partenariats startups : à la demande du responsable, prise en charge et organisation du dialogue qui pourrait s’avérait pertinent / productif avec des partenaires publics ou privés, internes comme externes : startups, éditeurs de solutions IA, Médias Francophones Public, Union Européenne de Radiotélédiffusion, grands groupes, laboratoires de recherche et monde de l’enseignement. Exemples de livrables Les livrables attendus dans le cadre du présent marché spécifique sont par exemple : · Indicateurs de suivi projet pour tous les sujets engagés · Supports de présentation des projets · Analyse du besoin / comptes-rendus de réunion · Supports de communication
Offre d'emploi
Data / IA Engineer (H/F)
CITECH
Publiée le
Docker
IA
Kubernetes
60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez intervenir sur des projets IA & AIOps à fort enjeu , au cœur de la conception de moteurs d’intelligence artificielle et de pipelines de données avancés ? Nous recherchons un(e) Data / IA Engineer (H/F) pour participer à la réalisation des premiers cas d’usage IA (MVP) dans un environnement technique exigeant et innovant. 🙌🔽 Vos principales missions : 🔽🙌 IA & Data Engineering 🔸 Concevoir et développer des bases de connaissances (RAG) en ingérant et structurant des documents internes et issus d’outils tiers. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel, de manière sécurisée. 🔸 Assurer la segmentation des documents (chunking) , l’ indexation vectorielle et le paramétrage des stratégies de recherche . Modélisation & Optimisation IA 🔸 Configurer et optimiser les modèles via Azure AI Foundry et LiteLLM (prompts, garde-fous, évaluation de la qualité). 🔸 Garantir la performance, la fiabilité et la pertinence des réponses générées. Intégration & Gouvernance 🔸 Participer activement aux processus CI/CD et au respect des normes de gouvernance technique . 🔸 Contribuer à l’industrialisation des solutions IA dans l’écosystème existant. Support & Collaboration 🔸 Fournir un support technique aux équipes projet. 🔸 Alimenter la FAQ technique et participer au partage de connaissances. 🔸 Travailler en collaboration avec les équipes Production et métiers.
Mission freelance
Data Engineer Experimenté/Senior
Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi
24 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
Mission freelance
Data Analyst Aix-en-Provence
CAT-AMANIA
Publiée le
Analyse
Data science
Data visualisation
2 ans
360-460 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe spécialisée dans l’analyse de la donnée, nous recherchons un Data Analyst expérimenté pour intervenir sur des problématiques d’exploitation et de valorisation des données. Au sein d’une équipe dédiée à l’analyse et à la fiabilisation des données, vous contribuerez à la mise en place d’analyses avancées et de cas d’usage métiers reposant sur l’exploitation de données multiples . Votre rôle consistera notamment à : Analyser et exploiter des jeux de données issus de différents domaines du système d’information Étudier la cohérence et l’impact des données dans les processus métiers Mettre en œuvre des analyses croisées permettant d’identifier des comportements atypiques ou des signaux faibles Développer des modèles analytiques ou prédictifs permettant d’améliorer la détection d’anomalies Concevoir et maintenir des produits data réutilisables (scripts, modèles, dashboards) Contribuer à la visualisation et à la restitution des analyses auprès des équipes métiers Respecter les normes et bonnes pratiques de développement et d’exploitation des données au sein de l’équipe. Vous interviendrez dans un environnement dynamique où la qualité, la structuration et la valorisation de la donnée sont au cœur des enjeux métier.
Mission freelance
Chef de Projet - Data & IA (F/H)
CELAD
Publiée le
1 an
500-520 €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Vous souhaitez contribuer à des projets stratégiques à fort impact autour de la Data et de l’IA ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un grand acteur du secteur bancaire, nous recherchons un.e Chef de Projet Data & IA expérimenté pour accompagner la montée en puissance des projets stratégiques autour de la Data et de l’Intelligence Artificielle Vous intégrerez un service Data Management & Intelligence Artificielle récemment structuré, au cœur de la transformation Data & IA de l’organisation Le poste est basé en région grenobloise, avec des déplacements ponctuels en région et en Île-de-France
Offre d'emploi
Chef de Projet - Data & IA (F/H)
CELAD
Publiée le
50k-55k €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Vous souhaitez contribuer à des projets stratégiques à fort impact autour de la Data et de l’IA ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un grand acteur du secteur bancaire, nous recherchons un.e Chef de Projet Data & IA expérimenté pour accompagner la montée en puissance des projets stratégiques autour de la Data et de l’Intelligence Artificielle Vous intégrerez un service Data Management & Intelligence Artificielle récemment structuré, au cœur de la transformation Data & IA de l’organisation Le poste est basé en région grenobloise, avec des déplacements ponctuels en région et en Île-de-France
Mission freelance
Mission Freelance – Security Expert Data & AI (H/F)
Comet
Publiée le
Big Data
Cybersécurité
1 an
400-580 €
Île-de-France, France
Dans le cadre d’un programme stratégique Data & AI à forte visibilité, nous recherchons un Expert Cybersécurité Data & Intelligence Artificielle pour accompagner la sécurisation de services et plateformes IA à l’échelle d’un grand groupe international. Contexte de la mission Vous intervenez au sein d’équipes Data & Analytics afin de garantir la sécurité des plateformes, services et usages IA , en lien étroit avec les équipes IT, sécurité et métiers. Missions principales Intégration de la sécurité dès la conception des projets Data & AI (security by design) Accompagnement des équipes projets et des responsables sécurité métiers Pilotage de la conformité sécurité (audits, plans de remédiation, reporting) Gestion et contribution aux incidents de cybersécurité Définition et déploiement de standards, règles et baselines sécurité Sensibilisation et montée en compétence des parties prenantes
Offre d'emploi
Consultant.e Data Talend F/H
ADDIXWARE
Publiée le
Qlik
Talend
1 an
39k-43k €
370-410 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Consultant Talend expérimenté pour accompagner nos clients dans leurs projets Data : intégration, transformation, qualité et gouvernance des données. Vos missions : - Développer et maintenir des flux d'intégration de données via Talend - Participer aux projets de gouvernance data, de la conception à la mise en production - Intervenir sur la visualisation et le pilotage des données (compétences Qlik appréciées) - Analyser les besoins métiers et proposer des solutions fiables et performantes - Assurer le support, la documentation et la qualité des livrables - Accompagner les équipes internes et favoriser la montée en maturité data
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
Responsable Plateforme Data Mesh
SURICATE IT
Publiée le
Architecture
Cloud
3 ans
Hauts-de-Seine, France
MISSION : 1. Construction et livraison de la plateforme (Responsabilité principale) Concevoir et mettre en œuvre l’architecture de la plateforme de données en libre-service Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès en libre-service Définir et faire respecter les standards techniques et les modèles d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques opérationnelles et valider les solutions 2. Architecture Cloud et Infrastructure Piloter la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery la mise en œuvre sur Amazon Web Services et Microsoft Azure Piloter l’ intégration des systèmes on-premise Piloter la mise en œuvre de l’automatisation et de l’Infrastructure as Code Garantir le respect des exigences de sécurité et de conformité 3. Gestion de la livraison et de l’exécution Piloter le cycle de vie de livraison de la plateforme Définir le backlog produit et le processus de priorisation Gérer les releases et les déploiements en production Suivre les performances et la fiabilité Gérer les risques et incidents techniques 4. Déploiement et adoption par les domaines métiers Déployer la plateforme dans les domaines métiers Permettre aux équipes métiers de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’ onboarding et l’adoption Résoudre les problèmes opérationnels d’adoption 5. Product Management (orienté usage) & amélioration continue Recueillir les besoins utilisateurs et exigences de la plateforme Définir la vision produit et la roadmap Mesurer l’ utilisation et la valeur délivrée Améliorer l’ expérience développeur et utilisateur
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6243 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois