L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 688 résultats.
Offre d'emploi
Ingénieur DevOps Big Data (H/F)
Publiée le
Ansible
Apache Kafka
Cloudera
1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Offre d'emploi
Testeur QA (Web et Mobile) F/H
Publiée le
Agile Scrum
Appium
Application mobile
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client dans le secteur bancaire, basé en Ile de France, un(e) Testeur(se) QA spécialisé(e) en API Web et Mobile. Missions : Analyse des exigences et rédaction des plans de test (techniques, fonctionnels, métiers). Conception et exécution de tests manuels sur les nouvelles fonctionnalités ou les régressions. Développement de scripts de tests automatisés (UI, API, intégration, performance). Intégration des tests dans les pipelines CI/CD pour garantir des livraisons fréquentes et fiables. Suivi des anomalies et collaboration avec les développeurs pour leur résolution. Participation aux cérémonies Agile (daily, sprint planning, review, rétrospective). Contribution à la stratégie de test de la squad et à la documentation qualité. Veille technologique sur les outils et pratiques QA.
Offre d'emploi
Consultant Administrateur Applicatif BI / Data
Publiée le
Microsoft Power BI
Qlik Sense
Sap BO
Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Mission freelance
Data Engineer GCP - Rennes
Publiée le
Agile Scrum
Apache Airflow
BigQuery
12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Offre d'emploi
Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans
Publiée le
BI
Méthode Agile
3 ans
50k-65k €
500-550 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Customer Experience Manager H/F
Publiée le
Service client
SQL
Talend
50k-60k €
Strasbourg, Grand Est
Télétravail partiel
Dans le cadre du développement de son activité et de la structuration de son pôle Customer Care, notre client recherche un Customer Experience Manager basé à Strasbourg. Véritable interface entre la tech et la relation client, le poste consiste à piloter une équipe de 7 personnes et à poser un cadre méthodologique clair pour un service jusqu’ici en pleine autonomie. Le manager aura pour mission de renforcer la performance opérationnelle, la qualité d’accompagnement client et la cohésion d’équipe, tout en incarnant un modèle de management engagé et participatif. Missions principales : *Management d’équipe (7 personnes) Manager le pôle Customer Experience de manière fonctionnelle et humaine : fixer les priorités, animer, développer les compétences. Réaliser les entretiens annuels, suivre les performances et accompagner l’évolution professionnelle de chacun. Mettre en place un cadre, une méthode et des outils de pilotage sans tomber dans le directif : un leadership participatif mais structurant. Être garant du bon fonctionnement global du service : coordination, priorisation, vision partagée. *Pilotage opérationnel du Customer Care Structurer et superviser les activités de support client, formation SaaS, onboarding, projets clients, planification et recette. Définir et harmoniser les méthodologies de travail de l’équipe. Assurer la coordination inter-services (Produit, IT, Vente, Marketing) et la validation des process et livrables. Participer ponctuellement à des réunions partenaires ou clients pour consolider la relation et le suivi de compte. *Dimension technique S’appuyer sur des bases techniques en SQL et une compréhension des flux ETL (Talend) pour mieux dialoguer avec les équipes techniques et améliorer les process. Piloter et monitorer la qualité et la performance opérationnelle avec des indicateurs concrets.
Mission freelance
Business Analyst senior/Expert Data – Asset Management
Publiée le
Architecture
Business Analyst
Data Warehouse
2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
Mission freelance
Google Cloud Architect
Publiée le
Google Cloud Platform (GCP)
Produit minimum viable (MVP)
6 mois
350-550 £GB
Hongrie
Télétravail partiel
RESPONSABILITÉS Co-définir et orienter activement la direction architecturale d’un MVP de plateforme cloud-native sur Google Cloud, en collaboration avec Google Cloud PSO et les parties prenantes internes. Prendre des décisions architecturales de qualité dans des délais serrés et sous contraintes évolutives. Concevoir d’abord pour l’intégration de systèmes, en anticipant la scalabilité au-delà du MVP et en évitant les impasses architecturales. Intégrer plusieurs systèmes, produits et modèles de données dans une architecture cohérente de plateforme. Guider les choix autour des architectures événementielles, de la gouvernance des données, de la cohérence et des interfaces API. Accompagner et développer les compétences des ingénieurs du client dans la pensée cloud-native et la logique de plateforme. Conseiller les équipes sur les raisonnements architecturaux, les arbitrages et la prise de décision pragmatique. Opérer efficacement sous pression et avec des informations partielles. Communiquer clairement l’architecture, les risques et les arbitrages auprès des parties prenantes techniques et métier de haut niveau.
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
Tech lead fullstack Java/ React - BPMN
Publiée le
Business Process Model and Notation (BPMN)
Java
JavaServer Pages (JSP)
36 mois
450-550 €
Niort, Nouvelle-Aquitaine
Étudier et proposer des solutions techniques, vous serez force de proposition et argumenterez les choix de conceptions et d’algorithmes Accompagner le chef de projet dans la construction de la feuille de route de l’équipe Animation de l’équipe de développement, apport de bonnes pratiques, d’outillage au service de la qualité Participations aux cérémonies des équipes : PI Planning, chiffrages Concevoir et paramétrer des solutions pour répondre aux besoins de nos clients Implémenter et tester les fonctionnalités utilisateurs au travers des développements et outils variés Réaliser des revues de code en collaboration avec votre équipe Participer à la vie du projet au travers de votre intégration au sein de l’équipe Rédiger la documentation technique Contribuer à l’amélioration continue, par des rétrospectives régulières, une recherche continue de simplification et d’optimisation, des discussions avec vos pairs travaillant sur d’autres logiciels Être l’interface entre l’équipe et les autres équipes MOE
Mission freelance
Data Analyst - Power BI
Publiée le
Data analysis
Data science
Data visualisation
6 mois
400-500 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons un(e) Data Analyst passionné(e) par l’analyse de données et souhaitant évoluer dans un environnement de production dynamique. Vous intégrerez une équipe en charge de la supervision d’un outil de production et serez responsable de la création et du suivi de reporting sur l’activité. Missions principales : Analyser les données issues de l’outil de production pour fournir des reporting réguliers. Identifier et suivre les incidents de production, analyser leur origine et proposer des actions correctives. Mettre en place des actions d’amélioration des processus basées sur les analyses réalisées. Collaborer avec les équipes métiers et techniques pour optimiser le fonctionnement des outils et des processus. Profil recherché : Connaissance de Power BI et capacité à créer des rapports et dashboards clairs et efficaces. Goût pour l’analyse et l’interprétation des données. Capacité à comprendre des processus de production et à proposer des améliorations. Rigueur, curiosité et sens de l’organisation. Junior accepté, envie d’apprendre et de monter en compétence. Conditions : Poste sur site dans un premier temps pour faciliter la montée en compétence. Possibilité de télétravail partiel : 3 jours par semaine après la période initiale.
Offre d'emploi
Ingénieur CVC Data Center Senior
Publiée le
AutoCAD
Revit
6 mois
40k-53k €
290-410 €
Paris, France
Résumé du poste · Concevoir et piloter les études CVC (cold room, salles IT, locaux techniques) pour des data centers, en intégrant les exigences de disponibilité, d’efficacité énergétique (PUE) et de maintenabilité. · Assurer l’interface technique avec les équipes MOE/MOA, exploitants, entreprises CVC, et contribuer aux phases d’essais/commissioning. Missions principales · Réaliser/valider les études de dimensionnement (charges thermiques, bilans, sélection équipements : chillers, dry coolers, CRAH/CRAC, CTA, free-cooling, réseaux hydrauliques). · Définir les architectures de redondance (N, N+1, 2N selon lot) et les modes dégradés, en cohérence avec les standards client et contraintes d’exploitation. · Produire ou vérifier les pièces techniques : CCTP, notes de calcul, plans/schémas, listes équipements, interfaces (MEP). · Participer aux revues de conception (APS/APD/PRO), aux consultations et à l’analyse des offres entreprises. · Suivre l’exécution sur site : visas, points techniques, FAT/SAT, mise au point, recettes et levées de réserves. · Contribuer à l’amélioration continue (standardisation, REX, bibliothèques techniques, checklists). Livrables attendus · Notes de calcul et hypothèses (charges, dimensionnements, pertes de charge). · Schémas de principe, P&ID, listes équipements/instruments, synoptiques. · CCTP / DCE, analyse technique des offres. · Plans de tests/commissioning (en support), rapports de mise en service et REX.
Mission freelance
Développeur Oracle Data Integrator (ODI)
Publiée le
ODI Oracle Data Integrator
24 mois
300-430 €
Brest, Bretagne
Télétravail partiel
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
Mission freelance
Senior Ops Engineer - Lille
Publiée le
AWS Cloud
Docker
Github
6 mois
350-450 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Offre d'emploi
Senior IT Systems & Operations Engineer F/H
Publiée le
50k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre d'une création de poste, SEA TPI recrute un Senior IT Systems & Operations Engineer F/H pour couvrir les activités de support, de run et de maintenance à l'ensemble de la flotte et aux membres d'équipage, de notre client, dans le domaine informatique (Poste de travail, Serveur, Tablettes et réseau) Les principales missions seront notamment : • Fournir le support 2 et 3 : Système IT et les applications métiers. Assurer le bon fonctionnement et la maintenance des systèmes IT sur les navires. • Workplace • Gérer au quotidien les activités récurrentes de production et les projets IT liés aux recommandations cybersec. • Monitoring systems performance et troubleshooting de problème. • Proposer des process d'industrialisation, monitoring, backup / recovery et sécurité. • Incidents critiques et problèmes management : analyses technique, coordination dans la résolution d'incident, RCA. • Gérer les besoins business et qualifier les demandes. • Intégrer et déployer les systèmes et applications IT sur les navires. • Assurer la sécurité des postes de travail, et la conformité des logiciels sur chacun d'entre eux • Coordonner la maintenance du service à bord à l'aide des différents support fournisseur. • Gérer les priorités dans le backlog d'activités (Build, support, incident / problèmes ...) • Obsolescence, capacité et vulnérabilité management. • Commissioning / decommissioning. • Assurer le lien avec les différentes équipes IT • IT asset management sur les navires. Livrables attendus : • Créer des procédures et de la documentations (Application à bord, Maintenance des systèmes, industrialisation...) • Mettre en place de process d'industrialisation, backup / recovery lié à la sécurité. • Lister les activités IT Support (Level, priorité...) • Définir un catalogue de service. Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : 9m2ybo37ah
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ESN qui cherche à trop marger
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
2688 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois