L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 976 résultats.
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-840 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Offre d'emploi
Data Analyst
Publiée le
Data quality
Gouvernance
Master Data Management (MDM)
3 ans
45k-50k €
420-500 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
En tant que Data Analyst, vous connectez les processus métiers aux besoins data. Vous contribuez également à la stratégie Master Data et transactionnelle en analysant les processus et en garantissant l’intégration des données. Votre rôle Analyse métier et conception de Data Use Cases Animer des groupes de travail pour accompagner les équipes métier dans la création des Service Blueprints, l’identification des principaux Data Use Cases et la compréhension des dépendances Consolider le Data Use Case à partir du processus métier, en l’alignant avec les équipes projets, et le gérer dans l’outil de Data Governance Réaliser l’analyse des écarts afin d’identifier les systèmes IT impactés et sécuriser la bonne définition des fonctionnalités nécessaires Gouvernance des données et structuration Définir, en collaboration avec le Data Steward, les règles de gestion et le cycle de vie des données transactionnelles et référentielles Accompagner le Data Steward dans l’intégration des données référentielles au sein du Master Data Management System Contribuer à la mise à jour du Data Catalog en fournissant des définitions de données claires Intégration, qualité et déploiement des données Accompagner les Business Units dans la mise en place des flux de données transactionnelles et dans l’utilisation des données référentielles via les Data Use Cases Participer aux tests d’intégration, systèmes et de recette; gérer la stratégie de migration, de bascule et les chargements de données Analyser les données existantes dans les systèmes BI et DataHub pour valider la cohérence des solutions et proposer des améliorations proactives de la qualité des données
Mission freelance
Expert Denodo (H/F)
Publiée le
Data Lake
ELK
1 an
Châtillon, Île-de-France
Télétravail partiel
Si manipuler et structurer les données est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’Expert Denodo ! 🚀 Ton challenge si tu l’acceptes : Administrer et paramétrer des requêtes dans Denodo pour répondre aux besoins métiers Assister les utilisateurs et les projets dans l’exploitation de la solution Denodo Maintenir et optimiser la plateforme pour garantir un service de qualité Structurer, intégrer et sécuriser les flux de données venant de multiples sources Participer à la supervision et au nettoyage des données pour assurer leur fiabilité Contribuer à la documentation et à la cartographie des sources de données Proposer des évolutions techniques et des améliorations des infrastructures existantes
Mission freelance
Data Analyst / Expert GPS
Publiée le
Apache Spark
Azure Data Factory
Data analysis
6 mois
520-590 €
Issy-les-Moulineaux, Île-de-France
Télétravail 100%
Contexte Nous recherchons un(e) Analyste Data Senior disposant d’une expérience avérée dans le traitement, la qualité et l’analyse de données GPS, afin de contribuer à des travaux d’analyse de parcours multi-journées et multi-modes de déplacement. Le/la candidat(e) interviendra dans un environnement dynamique et innovant, au sein d’équipes travaillant sur des problématiques de géolocalisation à fort volume. Missions1. Analyse et traitement de données GPS Rapprochement des points GPS avec les référentiels voirie. Détection, identification et correction des points aberrants. Consolidation des trajectoires issues de différents jours d’observation. Détection et analyse des arrêts, incluant les changements de mode de transport. 2. Qualité et enrichissement des données Vérification de la cohérence des trajectoires. Rapprochement des données GPS avec des bases d’adresses distribuées. Mise en place de règles de nettoyage et de filtrage pour améliorer la robustesse des analyses. 3. Analyse avancée des parcours Comparaison des parcours entre plusieurs journées et identification des écarts. Construction de métriques (temps d’arrêt, distance, vitesse, segments utilisés). Production d’analyses détaillées et de visualisations (cartes, dashboards, rapports). 4. Outils & environnement technique Manipulation de gros volumes de données (Spark, Databricks idéalement). Utilisation de Python, SQL, ou tout langage adapté à l’analyse géospatiale. Interaction avec des outils SIG ou bibliothèques géospatiales (QGIS, GeoPandas, etc.).
Mission freelance
Chef de Projet Data / BI
Publiée le
BI
Data management
6 mois
550-580 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet BI / Data stratégique, notre client final basé à Paris recherche un Chef de Projet BI / Data freelance pour piloter la mission et assurer le lien entre les équipes internes et l’éditeur Suadeo . Le consultant interviendra comme véritable chef d’orchestre du projet, garantissant la bonne organisation des travaux, le respect des délais et la qualité des livrables. Missions principales Jouer le rôle de Chef de Projet BI / Data côté client final Assurer l’interface entre le client et l’éditeur Suadeo Organiser et animer les ateliers métiers et techniques Piloter le planning, le delivery et les priorités projet Coordonner les différents interlocuteurs (métiers, IT, éditeur) Suivre l’avancement, identifier les risques et proposer des actions correctives Arbitrer les sujets opérationnels et faciliter les échanges Assurer le reporting projet auprès des parties prenantes Gérer les allers-retours avec l’éditeur sur les spécifications, évolutions et correctifs Profil recherché Expérience confirmée en gestion de projets BI / Data Solide compréhension des environnements Data / BI Très bon relationnel et capacité à interagir avec des équipes métiers et techniques Capacité à structurer, organiser et piloter des projets complexes Autonomie, rigueur et sens des priorités
Offre d'emploi
Ingénieur Cloud VMware Expert VCF / NSX-T / AVI (Senior)-Ivry-sur-Seine(H/F)
Publiée le
BGP (Border Gateway Protocol)
VMware vSphere
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte de la mission Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior , expert sur les technologies clés de virtualisation et réseau VMware : VCF, vSphere, NSX-T, AVI . La mission s’effectue au sein d’une équipe Cloud dédiée à la conception, au déploiement, au hardening et à l’exploitation d’infrastructures VMware de grande envergure, hautement sécurisées et critiques pour les applications internes. 🛠️ Missions principales 🔧 1. Conception & Développement des plateformes VMware Concevoir et optimiser des plateformes avancées basées sur : vSphere NSX-T (SDN / micro-segmentation) AVI (Load Balancing) VCF Participer à la construction du cloud privé souverain. Définir les services cloud adaptés aux besoins métiers. ⚙️ 2. Administration & Exploitation Gérer et maintenir l’infrastructure VMware : NSX-T, AVI, BGP . Assurer la haute disponibilité , la performance et la résilience. Intervention sur réseaux complexes : Juniper, Cisco . 🔐 3. Sécurité & Hardening Contribuer au hardening des infrastructures . Mettre en place des contrôles de sécurité avancés. Réaliser audits techniques, sécurité, conformité. 🤝 4. Collaboration & Support Accompagner les équipes de développement. Fournir support technique niveau expert. Participer à la montée en compétence interne. 🚨 5. Gestion des incidents Diagnostiquer et résoudre des incidents complexes. Proposer des axes d’améliorations et sécurisations. 📄 Livrables attendus Dossiers de conception des plateformes VMware Documents d’exploitation (Runbook / Architecture / Procédures) Hardening & fiches de conformité Documentation technique cloud & réseau ⚙️ Compétences techniques requises (IMPÉRATIVES) VCF – Expert NSX-T – Expert AVI – Expert vSphere, VMware Cloud Réseaux : BGP , virtual networking, haute dispo Connaissance des environnements datacenter (Cisco, Juniper) Français courant (impératif)
Mission freelance
Program Manager Privacy (F/H)
Publiée le
Data privacy
12 mois
93000, Bondy, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Program Manager / Chef de projet Privacy pour intervenir chez l’un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter un programme de maturité en matière de confidentialité et conformité (RGPD, Data Protection). - Mettre en place la gouvernance et superviser l’exécution des sous-projets. - Assurer la gestion des risques, reporting stratégique et suivi des livrables. - Coordonner les équipes projet et communiquer avec les parties prenantes. - Définir et suivre les standards qualité, gérer les changements et proposer des améliorations continues.
Mission freelance
data scientist
Publiée le
Data science
12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Mission freelance
Data Engineer
Publiée le
Big Data
IA
Java
3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Offre d'emploi
Data Engineer
Publiée le
Ansible
Big Data
Elasticsearch
1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Offre d'emploi
Testeur Fonctionnel Confirmé – Application Web & Mobile -Marseille + Télétravail(H/F)
Publiée le
Git
Méthode Agile
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Contexte de la mission Dans le cadre du développement de l’application ENEJ (web & mobile), dédiée au secteur éducatif du primaire au supérieur, nous recherchons un Testeur Fonctionnel Confirmé . Le produit évolue en mode Agile , avec des releases toutes les 4 semaines, dans un environnement hautement sécurisé (ISO27001 / SecNumCloud) . 🛠️ Missions principales Réaliser les tests fonctionnels : intégration, non-régression, E2E Tester les nouvelles fonctionnalités à chaque livraison Contribuer à des tests plus techniques : sécurité, accessibilité Rédiger les cahiers de tests et les dossiers de résultats Créer et suivre les tickets Git en cas d’anomalies Participer aux rituels Agile (daily, sprint review, sprint planning) S’assurer de la conformité fonctionnelle et technique du produit Respecter les standards de sécurité de l’environnement certifié 📄 Livrables attendus Cahier de tests Résultats de tests Tickets d’anomalie documentés (Git) Reporting d’avancement ⚙️ Compétences techniques requises Test fonctionnel – Confirmé (Impératif) Test technique – Confirmé (Souhaitable) Bonnes pratiques Agile Connaissance des environnements sécurisés (un plus) Français professionnel (impératif)
Offre premium
Offre d'emploi
Ingénieur Data confirmé H/F
Publiée le
IBM Db2
Microsoft SQL Server
PowerBI
12 mois
40k-48k €
400-450 €
Strasbourg, Grand Est
Télétravail partiel
Missions : Analyser les besoins métiers en reporting, exploration et valorisation des données avec les acteurs fonctionnels. Concevoir, développer, documenter et maintenir les solutions data sur la plateforme existante, avec un haut niveau d'exigence sur la qualité de code et la sécurité. Assurer la réalisation des tests unitaires et exploratoires pour valider les développements et garantir la fiabilité des chaînes de traitement. Participer à la maintenance corrective et évolutive des solutions data, en collaboration avec l'équipe architecture et data. Piloter et gérer le backlog data, prioriser les demandes et coordonner les développements avec les parties prenantes. Représenter la DSI au sein des instances de gouvernance data et faire remonter les besoins d'évolution de la plateforme. Être force de proposition pour l'amélioration continue et l'évolution technique de l'architecture data, en intégrant les dernières tendances. Les + pour le candidat : Intégrer une DSI dynamique, engagée et reconnue pour sa culture de proximité et ses pratiques responsables. Travailler au sein d'une équipe collaborative, à taille humaine, où l'autonomie et la polyvalence sont valorisées. Opportunité d'intervenir sur des projets variés, avec des technologies Microsoft SQL Server, PowerBI, Python et des outils modernes de gestion agile. Être acteur de la transformation digitale et de l'innovation sur la donnée dans un contexte de gouvernance structurée. Contribuer à un projet d'entreprise avec un fort engagement sociétal et environnemental. Évoluer dans un environnement favorisant la montée en compétences et l'échange entre pairs
Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU
Publiée le
CI/CD
Cloudera
Git
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1976 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois