L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 114 résultats.
Mission freelance
Consultant data ODI / Python
ESENCA
Publiée le
ETL (Extract-transform-load)
ODI Oracle Data Integrator
Python
1 an
Lille, Hauts-de-France
Localisation : Région lilloise Disponibilité : ASAP Contexte : Projet stratégique de transformation et modernisation Data Objectif de la mission Dans le cadre d’un programme de modernisation de la plateforme data, la mission consiste à analyser, documenter et faire évoluer des flux de données existants, avec une perspective de transformation vers des solutions plus modernes basées sur Python. Missions principales Réaliser un inventaire complet des flux de données existants (ODI) Analyser les dépendances, les logiques métiers et les enjeux associés Produire une documentation détaillée des flux (rétro-documentation) Améliorer la lisibilité, la maintenabilité et la gouvernance des traitements Contribuer à la transformation et à la migration des flux vers une nouvelle plateforme Participer à la modernisation de la stack data (orientation Python) Collaborer étroitement avec les équipes techniques et data Environnement technique Oracle Data Integrator (ODI) – expertise impérative Python (manipulation de données, automatisation, ETL) Environnements Data / ETL / flux batch
Mission freelance
Business analyst ERP / data
Pickmeup
Publiée le
Business Analyst
6 mois
500-650 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un programme de transformation structurant, notre client lance un projet d’harmonisation de ses systèmes de gestion à l’échelle internationale, avec la mise en place d’un ERP Cloud unique. L’objectif est de standardiser les processus métiers et les outils sur plusieurs zones géographiques (Europe, Amérique du Nord, filiales internationales), couvrant notamment les fonctions industrielles, financières ainsi que les activités commerciales liées aux pièces et consommables. Au sein de l’équipe projet, vous intervenez en tant que Business Analyst et assurez le lien entre les équipes métiers et les équipes techniques. Vous contribuez directement à la bonne compréhension des besoins et à la qualité de leur mise en œuvre. Description du poste Cadrage et conception Analyser les processus existants et contribuer à la définition des processus cibles Participer aux ateliers avec les équipes métiers afin d’aligner les besoins avec les standards de la solution Challenger les pratiques actuelles pour favoriser l’adoption de solutions pérennes Recueil et formalisation des besoins Rédiger les spécifications fonctionnelles sous forme de user stories Structurer et prioriser les demandes en lien avec les parties prenantes Assurer la bonne compréhension des besoins par les équipes techniques Recette et validation Définir les scénarios de test et organiser les campagnes de recette Participer aux phases de tests (intégration et acceptation utilisateur) Suivre les anomalies et valider les correctifs Data et migration Contribuer aux travaux de reprise de données (analyse, mapping, nettoyage) Veiller à la qualité et à la cohérence des données migrées Coordination et accompagnement Assurer le rôle d’interface entre les équipes métiers et IT Suivre l’avancement des développements et communiquer auprès des parties prenantes Accompagner les utilisateurs dans la conduite du changement Support et documentation Participer au support fonctionnel de premier niveau Maintenir une documentation projet claire et à jour Livrables attendus Backlog fonctionnel (user stories, règles de gestion, mapping) Plans de test et cahiers de recette Dossiers d’arbitrage pour les évolutions Documentation projet structurée Langues Anglais professionnel requis Qualités Bon relationnel et sens de la communication Capacité à synthétiser et vulgariser Rigueur et sens de l’organisation Esprit d’équipe
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Mission freelance
Chef de projet Data - Lille
ICSIS
Publiée le
Méthode Agile
1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
Offre d'emploi
Technicien Referent Junior H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
30k-37k €
Paris, France
Support de proximité – Niveau 1 & 2 Identifier, diagnostiquer et résoudre les incidents courants liés aux postes de travail et aux périphériques bureautiques. Intervenir dans un environnement industriel, avec capacité d'adaptation au matériel spécifique du site. Gestion des environnements utilisateurs Installation, configuration, mise à jour et dépannage sous Windows 10/11. Prise en charge des équipements : imprimantes, scanners, écrans, claviers, souris, téléphonie, stations d'accueil, périphériques USB. Support réseau local Dépannage de premier niveau : prises RJ45, tests de liaison, vérification de connectivité. Manipulations simples de câblage conformément aux procédures établies. Gestion des tickets Création, suivi, enrichissement et clôture des tickets d'incidents dans un outil ITSM (type ServiceNow ou équivalent). Rédaction précise et rigoureuse pour assurer la traçabilité. Escalade des incidents Identifier rapidement les demandes hors périmètre N1/N2. Assurer une transmission complète et structurée vers les équipes de support avancé (N2/N3). Connaissance des outils et environnements Maîtrise des applications standards : Microsoft 365 (Teams, Outlook, SharePoint...), outils bureautiques, et applications métiers de premier niveau (sur base documentaire fournie). Sécurité et conformité Respect des politiques de sécurité informatique : gestion des accès, problématiques de mots de passe, cohérence des comptes utilisateurs, respect des normes de protection des données. Application rigoureuse des bonnes pratiques de manipulation et de confidentialité des données. Référence de l'offre : 93zmg3jbkm
Offre d'emploi
Data Ingénieur - Expert Spark H/F
CONSORT GROUP
Publiée le
Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Architecte Base de données (F/H)
CELAD
Publiée le
1 an
500-600 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Télétravail flexible - Clermont-Ferrand - Expérience de 10 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Architecte Base de données pour intervenir chez un de nos clients. Vous aimez concevoir des architectures data robustes et faire le lien entre technique et produit ? Cette mission devrait vous parler. Voici un aperçu détaillé de vos missions : Au quotidien, vous intervenez sur la définition et l’évolution de solutions autour des bases de données : - Concevoir les architectures (HLD/LLD) et contribuer aux choix techniques - Définir et améliorer les procédures d’exploitation - Collaborer avec les équipes produit sur des solutions applicatives complexes - Sélectionner et qualifier les environnements d’exécution (on-premise, cloud, appliances) - Assurer une veille active pour anticiper les évolutions technologiques
Offre d'emploi
Ingénieur système Microsoft H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région PACA accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Vous intégrez le département poste de travail de notre client. Vous participez activement à l'intégration et à la sécurisation des environnements utilisateurs, tout en collaborant étroitement avec les équipes métiers. Vos responsabilités : • Réaliser l'intégration technique des composants sur le poste de travail (GPO, packaging, Windows Installer, APPX, bases de registre, tâches planifiées, MECM...) • Gérer la configuration Microsoft 365 sur les postes de travail et sur le tenant • Participer à l'intégration des applications métiers et éditeurs du SI • Mettre en œuvre la supervision et le reporting sur la performance et la disponibilité des postes • Être force de proposition sur le renforcement de la sécurité dans le respect des standards de production et des normes LPM • Participer à la gestion des vulnérabilités (Qualys, Splunk) • Produire la documentation d'exploitation et les comptes rendus d'intervention • Assurer un support de 2e et 3e niveau • Participer aux groupes de travail pour améliorer l'expérience utilisateur • Suivre et piloter les projets en lien avec les postes de travail L'environnement technique : Windows 10/11, GPOs, MECM, Microsoft 365, Sécurité LPM, Qualys, Splunk. Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI, avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte sur Aix-en-Provence (13), avec 1 à 2 jours de télétravail Package rémunération & avantages : • Le salaire : rémunération annuelle brute incluant variable • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 3bivrjlv77
Offre d'emploi
Développeur Python (H/F)
Aleysia
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'alternance
12 month apprenticeship – data science
█ █ █ █ █ █ █
Publiée le
Python
SQL
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING
Signe +
Publiée le
Java
12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Offre d'emploi
Administrateur Réseaux – Support & Exploitation (H/F)
DCS EASYWARE
Publiée le
Paris, France
Dans le cadre d’un projet de réorganisation et deconvergence des infrastructures IT, nous recherchons un profil réseauopérationnel pour renforcer une équipe existante. L’environnement réseau est partiellement opéré par unprestataire externe. L’objectif est de sécuriser l’exploitation quotidiennetout en accompagnant les projets de transformation en cours. Vos missions : Exploitation & support réseau Gérer les incidents réseau (LAN, Wi-Fi, firewall) Assurer les interventions de proximité (brassage, vérifications terrain) Garantir la disponibilité et la performance du réseau Intervenir directement sur site Participer à la résolution d’incidents complexes Escalader et suivre les tickets auprès des prestataires Pilotage prestataire Préparer et coordonner les interventions avec leprestataire Suivre les actions réalisées et assurer lacommunication interne Participer aux comités de pilotage avec leresponsable réseau Projets & évolution Contribuer à un projet de convergence desinfrastructures Participer aux évolutions réseau (refonte,harmonisation, etc.)
Offre d'emploi
Senior Data Analyst
AEROW
Publiée le
Microsoft Fabric
Microsoft Power BI
3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Senior Data Analyst expert capable de transformer des besoins métier complexes en insights exploitables. Vous interviendrez dans un environnement Data Mesh / Medallion / Microsoft Fabric Lakehouse , avec un rôle clé sur la qualité des données, la création de KPI fiables et la production de dashboards avancés pour le management. Analyse des besoins métier et définition de KPI pertinents . Transformation et préparation des données via SQL (structurées & semi‑structurées). Travail dans une architecture Medallion (Bronze/Silver/Gold) . Approche data mesh & conception de data products . Contrôles de qualité des données & documentation. Création de dashboards avancés dans Power BI (DAX) . Compréhension du Microsoft Fabric Lakehouse pour la localisation et l’interprétation des données. Collaboration avec les équipes ICT et participation active à la gouvernance data.
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché 2026: rebond ou stagnation ?
- Facturation electronique 2026
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Consultante freelance disponible | Pilotage de projets IT & conduite du changement : prête pour votre prochaine mission !
- EURL au régime micro-entreprise ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
6114 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois