L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 400 résultats.
Offre d'emploi
Administrateur Salesforce Service Cloud H/F
Publiée le
Salesforce Commerce Cloud
12 mois
50k-60k €
Île-de-France, France
DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintient en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD Setup des différentes bases CRM à jour et documentées Maitrise de la solution Backup et Restore de Salesforce Maitrise la logique de Salesforce de la sécurité/ des accès
Mission freelance
Architecte SI applicatif et intégration, Data Flow, API, MFT - Paris - Vorstone
Publiée le
API
API Platform
Enterprise Application Integration (EAI)
2 ans
600-800 €
Paris, France
Télétravail partiel
Architecte SI applicatif et intégration, Data Flow, API, MFT - Architecture SI et gouvernance applicative SI Vorstone recherche un Consultant Senior en Architecture et Intégration IT pour un de ses clients, un groupe international basé à Paris. L' Architecte d’entreprise applicatif et intégration , Data Flow, API, MFT senior sera responsable de toute l’architecture IT y compris data exchange/ API platform management, au sein du paysage IT du groupe. Ce rôle veille à l’alignement des systèmes informatiques avec les objectifs métier, soutient le développement et l’intégration de nouvelles technologies, et maintient l’efficacité opérationnelle des services IT. L’Architecte SI applicatif et intégration, Data Flow, API, MFT sera rattaché au CIO (Directeur des Systèmes d’Information) et joue un rôle clé dans la définition de la stratégie et roadmap IT du groupe. L'objectif est de faire évoluer, rationnaliser et homogénéiser tout le paysage applicatif pour tous les pays suite à de nombreux rachats/Carve-in. 🧩 Responsabilités principales Architecture IT Développer et maintenir l’architecture d’entreprise IT, en veillant à ce qu’elle réponde aux besoins actuels et futurs du business. Définir et mettre en œuvre les standards, guidelines, and best practices architecturales. Collaborer avec les métiers et différentes parties prenantes métier pour identifier et prioriser les améliorations architecturales. Piloter la conception (design) et l’intégration de nouveaux systèmes et technologies, en garantissant une interopérabilité fluide. Superviser l’évaluation et la sélection de solutions technologiques alignées avec les objectifs stratégiques de l’entreprise. Gestion de la plateforme d’API (Mulesoft) & & Opcon Managed File Transfer (MFT) Gérer la plateforme d’API Mulesoft et l’architecture OpCon MFT , en veillant à leur utilisation efficace pour l’intégration des différents systèmes et services IT. Collaborer avec les équipes de développement pour garantir que les APIs et les flux MFT sont conçus et mis en œuvre selon les meilleures pratiques. Identifier les opportunités d’optimisation et d’amélioration de la plateforme d’API et de la solution MFT. Reporting et analyse Préparer et présenter des rapports réguliers sur l’architecture IT, incluant la performance des plateformes API et MFT, à la direction. Analyser les indicateurs clés et les tendances pour identifier les axes d’amélioration et éclairer la prise de décision stratégique.
Offre d'emploi
Développeur Fullstack Data Java / Python / SQL
Publiée le
Automatisation
CI/CD
Cloudera
3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
Mission freelance
MASTER DATA FASHION/RETAIL
Publiée le
SAP
6 mois
Paris, France
Télétravail partiel
Bonjour, Je cherche activement un consultant SAP Master Data Fashion/Retail Côté production Construction de core model SAP S/4HANA Tâches MOE Cadrage Conception MOA Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Fashion FMS / Retail Notion des 3 dimensions est un plus S/4HANA : au moins un projet ETE Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory Date de début : ASAP Durée : +6 mois renouvelables (visibilité 1 an+) Localisation + Rythme + Déplacements : 3 à 4 jours par semaine sur site en Ile de France
Offre d'emploi
Responsable de Domaine Data/BI
Publiée le
Data Warehouse
ETL (Extract-transform-load)
PowerBI
90k-100k €
Antony, Île-de-France
Télétravail partiel
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
Mission freelance
Chef de projet /MOE / .Net / Cloud
Publiée le
.NET
C#
Cloud
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Vos principales responsabilités seraient les suivantes : Cadrage du projet d’évolution avec la MOA Conception fonctionnelle Conception technique Rédaction de la stratégie de tests de recette, du plan de test et des cas de test Exécution des tests de recette Support aux utilisateurs Pilotage des différents acteurs du projet (développeurs et contributeurs) Suivi budgétaire, établissement du plan de charge, reporting régulier et remontée des alertes Les compétences attendues sont les suivantes : C# .NET Cloud MOE
Offre d'emploi
AI Engineer / Ingénieur·e IA - Intégration & Déploiement
Publiée le
AI
API
CI/CD
12 mois
Paris, France
Ingénieur IA | Python-RAG • Développement d’algorithmes : concevoir et développer des algorithmes d’apprentissage automatique (machine learning), d’apprentissage profond (deep learning) et d’autres techniques d’IA. • Analyse de données : collecter, nettoyer et analyser les données pour entraîner les modèles d’IA. • Optimisation des modèles : améliorer la précision et l’efficacité des modèles d’IA existants. • Intégration de solutions IA : intégrer les solutions d’IA dans les systèmes existants ou développer de nouvelles applications basées sur l’IA. • Recherche et innovation : mener des recherches pour explorer de nouvelles techniques et technologies en IA. • Collaboration interdisciplinaire : travailler avec des équipes multidisciplinaires, y compris des experts en données, des développeurs de logiciels et des chercheurs. • Veille technologique : suivre les avancées et les tendances dans le domaine de l’IA pour anticiper les évolutions et proposer des améliorations. • Documentation et reporting : rédiger des documents techniques, des rapports d’avancement et des publications scientifiques pour partager les résultats et les connaissances acquises. Profil Recherché BAC+4/+5 3 – 5 ans d’expérience en IA, Machine Learning ou Data Science Très bon niveau en Python & RAG, SQL, NoSQL
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Mission freelance
Data Scientist / GenAI /LLM
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Télétravail 100%
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Offre d'emploi
Administrateur Réseaux et Systèmes (H/F)
Publiée le
38k-40k €
Port-Saint-Louis-du-Rhône, Provence-Alpes-Côte d'Azur
Nous recrutons un Administrateur Systèmes & Réseaux avec une orientation réseaux (70% réseaux et 30% systèmes) pour un acteur majeur de la logistique à Port-Saint-Louis-du-Rhône (13). Au cœur d'un environnement industriel exigeant, vous participez activement à la disponibilité, à la sécurité et à la performance d'un système d'information essentiel aux opérations du premier terminal portuaire français en Méditerranée. Le poste inclut des interventions ponctuelles en hauteur ainsi qu'un système d'astreintes. Vos principales missions seront les suivantes : • Administrer et maintenir notre parc de serveurs (majoritairement Windows, un peu de Linux). • Assurer la supervision, les mises à jour, la sauvegarde et la sécurité de l'infrastructure. • Gérer et optimiser l'architecture virtualisée (VMware). • Administrer Active Directory (DNS, DHCP, GPO) et les services Office 365, Azure AD, Intune. • Gérer les réseaux : flux, routage, Wi-Fi interne/externe, VLAN, VPN, QoS. • Assurer la gestion du stockage (SAN/NAS) et de la téléphonie sur IP. • Participer au support utilisateur de proximité ponctuel (niveau 2/3). • Collaborer avec les fournisseurs et prestataires. • Réaliser des interventions nécessitant du travail en hauteur. • Participer aux astreintes (1 toutes les 3 semaines – 18h→8h). Les missions énumérées ci-dessous ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : g954eeqvfv
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Offre d'emploi
Data scientist
Publiée le
Python
40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Mission freelance
Data Privacy expert
Publiée le
RGPD
12 mois
650-760 €
Paris, France
Télétravail partiel
Mission : Développement et adaptation des politiques du Groupe en matière de confidentialité des données, conformément aux lois et réglementations applicables, y compris les formulaires de consentement, d’autorisation, les avis d’information et les documents reflétant les pratiques juridiques et organisationnelles actuelles. Adoption et mise en œuvre d’exigences ou de lignes directrices détaillées pour assurer une gestion conforme des sujets spécifiques jugés nécessaires. Formation et conseil juridique à toutes les entités sur les questions de confidentialité des données. Soutien et contrôle du registre général de protection des données. Accompagnement des projets, fourniture d’évaluations de conformité en matière de confidentialité des données et validation lorsque la conformité aux lois applicables est jugée satisfaisante. Interface avec les équipes chargées de répondre aux demandes d’accès et de gérer les incidents et violations de données personnelles. Assistance à la rédaction d’accords de confidentialité des données, d’analyses d’impact sur la protection des données et de notes de position. Révision et suivi des activités commerciales, des contrats fournisseurs et des négociations. Participation aux comités. Contrôle Permanent : Contrôle des réglementations sur la confidentialité des données. Interface avec les instances de gouvernance d’entreprise. Communication et reporting auprès de l’autorité locale de protection des données, en s’appuyant sur la relation avec les instances de gouvernance locales du Groupe et ses entités. Interface avec d’autres experts métiers. Expertise technique : Expertise préalable en confidentialité des données / conformité (juridique ou sécurité informatique). Environnement de travail en anglais et contexte anglophone – Obligatoire. Environnement de travail en français et contexte francophone – Souhaitable. Autres expertises et capacités : 2 à 8 ans d’expérience (idéalement incluant une expertise en négociation contractuelle). Capacité à prioriser les tâches avec un plan d’action clair. Expertise en responsabilité et en livraison de résultats de haute qualité dans les délais et le budget impartis. Expertise dans la remise en question des processus de travail inefficaces et la promotion d’alternatives constructives. Expertise dans l’utilisation de critères appropriés pour évaluer régulièrement les processus de travail, les services et les livrables. Capacité à solliciter et/ou fournir des informations pouvant influencer la planification, les programmes et la prise de décision de l’organisation. Capacité à établir des relations solides avec un large éventail de profils et d’expertises en informatique et dans les organisations métiers. Capacité à gagner la confiance des clients internes et des autres parties de l’organisation tout en favorisant le changement. Excellente expertise en communication à tous les niveaux. Style collaboratif et expertise en travail d’équipe, avec une excellente expertise en gestion de projet et expertise interculturelle.
Offre d'emploi
Administrateur Systèmes N2/N3 – Data Lake / Linux / Cloudera
Publiée le
Ansible
Apache Airflow
Linux
24 mois
Île-de-France, France
Télétravail partiel
Mission: Lieu : IDF (sud de Paris) Démarrage souhaité : Janvier 2026 Télétravail : 2 jours par semaine Astreintes : Oui Nous recherchons trois Administrateurs Systèmes N2/N3 pour intervenir sur une plateforme Data Lake de grande envergure. Vous rejoindrez l’équipe en charge de l’administration, du maintien en conditions opérationnelles et de l’automatisation des environnements Linux/Cloudera. Il s’agit d’une mission longue et techniquement exigeante, dans un environnement moderne mêlant Big Data, automatisation, scripting et ordonnancement. Responsabilités principales Administrer et exploiter la plateforme Data Lake (environnements Cloudera & Linux) Assurer le MCO/MCS des clusters (fiabilité, disponibilité, supervision) Implémenter et maintenir des pipelines d’automatisation via AWX / Ansible Rédiger et maintenir des scripts d’administration (Python, Shell, Ansible) Participer aux phases d’industrialisation, normalisation et sécurisation des environnements Gérer les accès et l’identité via IDM / FreeIPA Exploiter et optimiser les workflows sous Airflow Participer à la gestion des incidents (N2/N3), astreintes et interventions HNO Travailler en coordination avec les équipes Data, Sécurité et Exploitation
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ESN qui cherche à trop marger
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
3400 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois