L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 631 résultats.
Mission freelance
Développeur Big Data
Codezys
Publiée le
JIRA
Linux
Python
24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Offre d'emploi
Administrateur.trice OpenShift
Atlanse
Publiée le
Ansible
Cloud
Docker
3 ans
55k-65k €
400-500 €
Île-de-France, France
Vous interviendrez au sein de l’équipe Infrastructure CaaS (Container as a Service) et serez en charge des plateformes OpenShift supportant les applications critiques. Missions Administration des plateformes OpenShift · Déployer, configurer et maintenir les clusters OpenShift · Garantir la disponibilité, la performance et la résilience des plateformes · Superviser les environnements (logs, métriques, alertes) et gérer les incidents · Assurer le support aux équipes utilisatrices Automatisation et industrialisation · Automatiser les déploiements et configurations via Ansible / scripts · Industrialiser les opérations récurrentes (provisioning, scaling, mises à jour) · Contribuer à l’amélioration des chaînes CI/CD en lien avec les équipes DevOps Sécurité et gouvernance · Mettre en œuvre les bonnes pratiques de sécurité OpenShift (RBAC, gestion des accès, politiques réseau) · Gérer les vulnérabilités et appliquer les correctifs · Veiller à la conformité avec les standards internes et réglementaires · Participer à la définition et à l’application des règles de gouvernance des clusters Amélioration continue et collaboration · Assurer le lien avec les équipes opérationnelles et les partenaires métiers sur les sujets liés aux conteneurs · Proposer des optimisations (performance, coûts, architecture) · Réaliser une veille technologique sur les écosystèmes Kubernetes / OpenShift / Cloud
Mission freelance
Chef de projet Data - Expert Power BI (technico-fonctionnel)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
3 ans
500-550 €
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Mission freelance
Qualifieur Senior
Codezys
Publiée le
Business Intelligence
Databricks
PostgreSQL
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de ses activités en Business Intelligence (Décisionnel), le client recherche un profil de qualifieur sénior (avec plus de 7 ans d'expérience) pour un poste à temps plein équivalent (1 ETP) . Ce profil viendra renforcer le dispositif du service qualification sur le site de Lyon. L'objectif principal est d'intégrer une ressource compétente en requêtage SQL afin de consolider l'équipe de qualification en Décisionnel. Fort de ses compétences techniques et fonctionnelles, le prestataire devra également posséder une solide connaissance de la Business Intelligence ainsi qu'une compréhension approfondie des méthodes Agile. Objectifs et livrables Sous la supervision du responsable du Bureau d’Étude et de Qualification Décisionnel & Big Data, le profil aura notamment pour missions : Identifier les impacts d'une nouvelle application ou des applications modifiées sur l'intégration du SI-RC ; Vérifier l’interopérabilité entre les différents systèmes ; Réaliser les tests d’intégration : valider les correctifs livrés, assurer l’interopérabilité et la cohérence globale ; Organiser et préparer la phase de tests, en planifiant notamment : les critères de recevabilité des livraisons ; l’estimation et la planification des travaux ; l’organisation des équipes ; les besoins en infrastructure et environnement ; la préparation des jeux de données. Préparer les scénarios de tests et mettre en place les infrastructures nécessaires (contextes, logiciels, données) ; Coordonner et accompagner les campagnes de tests : suivi de l'exécution des sessions de test ; exécution des plans batch ; analyse des résultats ; suivi des non-conformités. Rédiger le rapport de qualification ; Participer à la coordination des phases de recettes ; Contribuer aux phases de déploiement en préproduction et en production.
Offre d'emploi
Data Scientist, expert python , pyspark, Azur (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
Data management
45k-50k €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
DevOps Kubernetes / Platform Engineer (H/F)
CITECH
Publiée le
CI/CD
Kubernetes
Linux
12 mois
40k-55k €
370-410 €
Marseille, Provence-Alpes-Côte d'Azur
✨ Si vous souhaitez mettre votre expertise DevOps et Kubernetes au service d’un projet d’infrastructure stratégique, nous avons LA mission qu’il vous faut ! Nous recherchons en effet un(e) DevOps Kubernetes / Platform Engineer (H/F) 🚀 Vous interviendrez sur des sujets à forts enjeux techniques autour de la conteneurisation, du Cloud et de l’industrialisation des plateformes. 👉 Vos principales missions seront les suivantes : 👈 🔸 Architecture & Plateforme Participer à la définition de l’architecture des plateformes de services orientées Kubernetes. Concevoir et documenter les solutions d’infrastructure afin de garantir leur exploitabilité et leur pérennité. Contribuer à la mise en place de plateformes self-service pour les équipes internes. 🔸 Performance, Sécurité & Exploitation Superviser, monitorer et optimiser les environnements Cloud et conteneurisés. Garantir la robustesse, la haute disponibilité et la sécurité des plateformes. Assurer le support technique de niveau 3 sur des incidents complexes. 🔸 DevOps & Automatisation Industrialiser les déploiements via les chaînes CI/CD. Automatiser l’infrastructure via des outils d’Infrastructure as Code. Participer à l’amélioration continue des environnements Kubernetes et des processus DevOps. 🔸 Innovation & Collaboration Réaliser une veille technologique active sur les solutions d’automatisation et de conteneurisation. Accompagner les équipes utilisatrices dans l’appropriation des outils et services. Collaborer étroitement avec le Product Owner et les équipes techniques en environnement Agile Scrum.
Offre d'emploi
Data Analyst Power BI
UCASE CONSULTING
Publiée le
Data visualisation
DAX
Microsoft Power BI
1 an
55k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des environnements cloud et accompagner les métiers dans la valorisation de leurs données. Missions En collaboration avec les équipes Data et les équipes métiers, vous serez amené(e) à : Recueillir et analyser les besoins métiers Concevoir et maintenir des tableaux de bord et reportings sous Power BI Accompagner les utilisateurs dans la prise en main des outils décisionnels
Offre d'emploi
Data Analyst Senior H/F
SMARTPOINT
Publiée le
Git
PySpark
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Offre d'emploi
DevOps Engineer IA
TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow
1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Mission freelance
Consultant DevOps / Architecture & Systèmes - Sophia Antipolis
Net technologie
Publiée le
Ansible
API REST
Docker
3 mois
400-430 €
Nice, Provence-Alpes-Côte d'Azur
Nous recherchons un Expert DevOps pour renforcer une équipe travaillant sur une plateforme API Gateway stratégique sécurisant et optimisant le trafic API vers différents backends réseau. 👥 Équipe pluridisciplinaire en mode Agile / Kanban 🎯 Missions Automatisation et gestion des environnements Linux, Docker, Kubernetes Sécurisation des déploiements (Ansible, Vault) Analyse et remédiation des failles de sécurité Mise en place de la supervision (Prometheus, Grafana) Support et optimisation des API REST / API Gateway Amélioration continue des pratiques DevOps Accompagnement de l’équipe et montée en compétences
Offre d'emploi
Data Analyst Microsoft H/F
OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric
1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Mission freelance
Chef de Projet Technique Senior GED (H/F)
Nicholson SAS
Publiée le
Administration Windows
Apache Tomcat
CFT (Cross File Transfer)
12 mois
550-600 €
Paris, France
Nous recherchons un profil technique à forte dimension opérationnelle pour piloter le déploiement de nos solutions de GED (Gestion Électronique de Documents) et SAE (Système d'Archivage Électronique) au sein d'environnements complexes, qu'ils soient Cloud ou On-Premise. Votre Mission : Être l'architecte du concret Véritable pivot entre la Direction de Projet et les équipes Infrastructures/Exploitation, vous ne vous contentez pas de configurer un outil : vous lui donnez vie. Le point clé : Au-delà du simple paramétrage applicatif, nous recherchons une personne capable d' orchestrer l'installation complète et autonome d'une solution de GED , de la mise en place technique initiale jusqu’à sa parfaite mise en service opérationnelle. Vos principaux défis Maîtrise Technique : Déployer et administrer les solutions sur des stacks Linux/Windows, Tomcat et PostgreSQL avec une rigueur absolue sur la sécurité. Fluidité Opérationnelle : Assurer l'analyse et la résolution d'incidents complexes tout en garantissant une communication transparente entre les métiers et l'exploitation. Transmissibilité : Rédiger des dossiers d'exploitation soignés pour une transition fluide vers le "Run". Pilotage de l'effort : Gérer votre charge avec une vision acérée du calcul des restes à faire , garantissant la tenue des engagements du projet.
Mission freelance
Développeur C#
KUBE Partners S.L. / Pixie Services
Publiée le
C#
HTML
PostgreSQL
6 mois
300-550 €
Lille, Hauts-de-France
Besoin : Développeur en C# Localisation : Lille Secteur : Retail Missions : Développement du logiciel de traçabilité RFID Suite Développer les nouvelles fonctionnalités du logiciel Maintenir et sécuriser le RFID Suite Equipe : groupe d’une dizaine de personnes Contacts réguliers avec les usines et le Product Manager Technologies utilisées : C# / SQL / RFID / HTML Langue : Anglais professionnel Rythme : 2 à 3 jours de TT par semaine
Mission freelance
Lead Business Analyst Assurances - Niort
CAT-AMANIA
Publiée le
API
JIRA
Microservices
2 ans
Niort, Nouvelle-Aquitaine
Nous recherchons un Lead Business Analyst (H/F) afin d’accompagner les équipes projets dans la définition et la mise en œuvre de solutions applicatives. Vous interviendrez dans un environnement Agile , au cœur des échanges entre les équipes métiers et les équipes IT. Vos missions En tant que Lead Business Analyst , vous serez responsable de la coordination et de la qualité des analyses fonctionnelles et techniques sur les projets. À ce titre, vos principales missions seront : Recueillir, analyser et formaliser les besoins métiers Rédiger les spécifications fonctionnelles et techniques Participer à la conception fonctionnelle des solutions Contribuer à la conception d’API et aux échanges inter-applicatifs Assurer la cohérence fonctionnelle des solutions proposées Encadrer et accompagner les Business Analysts de l’équipe Animer les ateliers métiers et techniques Participer à la priorisation du backlog produit Collaborer étroitement avec les équipes de développement, d’architecture et de tests Participer à la recette fonctionnelle et à l’analyse des anomalies Être force de proposition dans l’ amélioration continue des processus Environnement et compétences techniques Vous évoluerez dans un environnement technique et fonctionnel comprenant notamment : Conception et modélisation d’API SQL / manipulation et analyse de données Architecture API / microservices Outils de gestion de projet Agile ( Jira, Confluence… ) Collaboration avec des équipes développement (Java, front-end, etc.)
Offre d'emploi
Chef de Projet Technique senior ( H/F)
AVA2I
Publiée le
J2EE / Java EE
JIRA
Linux
3 ans
40k-45k €
400-550 €
Île-de-France, France
nous recherchons un Chef de Projet Technique pour intervenir au sein d’une équipe IT Architecture & Développements sur des applications critiques Front-to-Back. ResponsabilitésGestion de projet Accompagner les Business Analysts dans l’expression des besoins (mode projet ou catalogue) Piloter les demandes d’évolution sur les développements internes Rédiger les cahiers des charges et spécifications techniques Analyser les spécifications BA, réaliser les analyses d’impact et proposer les solutions techniques adaptées Coordonner la mise en œuvre avec les différents intervenants (support, production, fournisseurs, éditeurs…) Garantir la qualité des livrables internes et sous-traités (bonnes pratiques CMMI) et le respect des jalons Suivre les defects en phase projet (Quality Center, Jira, 2Strack) Analyse & développement (dimension technique attendue) Réaliser des développements autour de progiciels (Ubix / Lisa) et d’applications internes (reporting, risque, intégration Front-to-Back) Développer principalement en PL/SQL Oracle et Spring Batch Assurer la maintenance corrective et évolutive Définir la solution technique et les dépendances avec d’autres livrables Concevoir, développer et documenter les livrables (wiki / users guide) Réaliser des stress tests / tests de performance Réaliser les tests unitaires et d’intégration (IST) Garantir les mises en production (procédures de déploiement) avec les équipes Service Delivery Suivre les incidents en post-production Compétences requises Expérience confirmée en gestion de projet technique en environnement bancaire Très bonne maîtrise : Java JEE, Spring, Spring Batch, Linux, Oracle, PL/SQL Expertise du data model Ubix (requis) Expertise Oracle : fonctions avancées + optimisation performance Bonne connaissance des produits dérivés (Execution & Clearing)
Mission freelance
ADMINISTRATEUR SYSTÈME H/F
5COM Consulting
Publiée le
Citrix
DNS
Windows Server
3 ans
400-550 €
91800, Brunoy, Île-de-France
Au sein de la Direction des Systèmes d'Information et rattaché au département SI Interne, l'administrateur Système intervient sur la mise en place de nouvelles solutions, leur administration et leur support dans les domaines du poste de travail et des applications. Vos activités principales : Apporter un point de vue et une expertise technique sur les projets, évolutions et changements techniques de l'unité Poste de travail (physiques et virtuels) Contribuer aux projets de traitement de l'obsolescence des différents composants du périmètre (serveurs Windows, applications hébergées...) Veiller au respect des procédures en place et à leur suivi en tenant compte des exigences du secteur Traiter les incidents de niveau 3, les problèmes et demandes sur les environnements techniques du périmètre Rédiger des documents techniques (dossiers d'architecture, dossiers d'exploitation, procédures) Participer de manière transverse aux projets techniques du service et du département
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1631 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois