L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 415 résultats.
Offre d'alternance
Data Engineer (Databricks /Azure)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
CI/CD
Châtillon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
24k-26k €
Rueil-Malmaison, Île-de-France
Missions principales : En tant que technicien Support Utilisateurs vous auriez comme missions : • Assurer le support utilisateurs de proximité sur site (diagnostic, résolution d'incidents, assistance technique) • Intervenir sur les postes de travail via intervention physique, assistance téléphonique ou prise en main à distance • Gérer et traiter les tickets d'incidents et de demandes via l'outil EasyVista • Installer, configurer et maintenir les postes de travail, périphériques et équipements informatiques • Assurer le support sur les systèmes d'exploitation poste de travail • Intervenir sur les problématiques réseaux de premier niveau (TCP/IP, DNS, DHCP, VPN, VLAN) • Participer à la gestion des sauvegardes et des systèmes de stockage • Apporter un support sur les équipements de téléphonie fixe et mobile • Assurer un suivi des incidents et communiquer efficacement avec les utilisateurs • Prioriser et gérer plusieurs demandes simultanément dans le respect des procédures Référence de l'offre : ub0pdq0w8k
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Administrateur Système, Sauvegarde et réseaux
Ela Technology
Publiée le
Administration linux
Administration Windows
Powershell
6 mois
40k-45k €
300-400 €
Lille, Hauts-de-France
L’Administrateur Infrastructures installe, met en production, administre et exploite les moyens informatiques d’un ou plusieurs sites informatiques - MCO / Middleware Maintien en condition opérationnelle de la Production : • Supervision de l’infrastructure et proactivité afin de limiter les impacts et les incidents • Résolution d’incidents • Mise en place de flux sur ordonnanceur • scripting (powershell , bat , shell ..) • Maintenir ou créer les procédures du service exploitation • Contribuer aux actions de patching OS/Middleware • Participer à l’astreinte logistique Maintenance et développement des infrastructures système : • Mesurer et optimiser les performances du système. • Prévenir, diagnostiquer et corriger les erreurs systèmes. • Transmettre et faire remonter les différentes informations et problèmes rencontrés (obsolescences, risques d’altération de la sécurité…). • Prendre en charge sur le plan technique les nouveaux projets système. • Participer aux travaux de paramétrage sur les nouveaux projets. Mise en place et administration des systèmes d’exploitation : • Administrer les systèmes d’exploitation (Windows, Linux, Aix…). • Assurer la traçabilité et l’exploitation des événements survenus au sein du système. • Réaliser un suivi des systèmes : contrôle des systèmes de sauvegarde, d’antivirus, des éléments de sécurité… • Assurer les mises à jour, mises hors service, et montées de version des serveurs en accord avec les règles définies par la Direction du Système d’Information concerné. • Assurer le patching en lien avec l’administrateur active directory.
Mission freelance
Data scientist Senior
CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python
6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
Offre d'emploi
[Product Owner Réseaux] H/F
CONSORT GROUP
Publiée le
75017, Paris, Île-de-France
C’est votre mission Vous êtes passionné·e par le pilotage produit en environnement Agile à grande échelle ? Ce poste est fait pour vous. En tant que Product Owner , vous êtes responsable de la vision produit, de la roadmap et de la performance d’une équipe d’environ 18 personnes au sein d’un train Agile SAFe. Côté build : Définir et porter la stratégie du produit LAN DC IAC en cohérence avec les objectifs de la ligne de produits Construire et piloter la roadmap en priorisant les besoins métier et techniques Encadrer et accompagner une équipe d’environ 18 collaborateurs Contribuer au développement et à l’automatisation du produit Garantir la cohérence des solutions avec les autres équipes du train Agile Coanimer les cérémonies Agile avec le Scrum Master (backlog, sprint planning, démos, rétrospectives) Participer aux cérémonies du train Agile, notamment le PI Planning Côté run : Suivre les KPIs de qualité et de performance de l’équipe Assurer le pilotage du delivery client Veiller à la qualité de service et à la performance du RUN Coordonner les échanges avec les parties prenantes (équipes transverses, clients) Évoluer efficacement dans un environnement à forte pression et à forts enjeux C’est votre parcours Vous avez au moins 5 ans d’expérience en tant que Product Owner / Lead en environnement Agile/SAFe. Vous aimez piloter des produits complexes, fédérer des équipes et délivrer de la valeur en continu, sans jamais cesser d’innover. C’est votre expertise : Méthodologies Agile / Scrum / SAFe Jira & Confluence Environnement DevOps Pilotage de roadmap produit et gestion de backlog Suivi de KPIs et amélioration continue Connaissances en réseaux LAN / Datacenter (fort atout) C’est votre manière de faire équipe : Leadership et capacité à embarquer une équipe Excellente communication avec des interlocuteurs multiples Sens de la priorisation et de la prise de décision Orientation valeur et résultat Esprit collaboratif et transverse Résilience et gestion des environnements sous pression C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Orange Gardens – Châtillon Contrat : CDI Télétravail : Hybride selon mission Salaire : Selon expérience Famille métier : Réseaux / DevOps / Product Management
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Offre d'emploi
Business Analyst / Data Analyst
R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Offre d'emploi
Ingénieur réseaux et sécurité F/H
AIS
Publiée le
Réseaux
1 mois
37k-42k €
210-420 €
Nantes, Pays de la Loire
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grand compte votre mission s'inscrira dans le cadre de projets d'évolution et de maintien en conditions opérationnelles des infrastructures réseau et sécurité. L'équipe que vous intégrerez est chargée de l'architecture/design du réseau, de la qualification technique et de l'intégration des architectures en laboratoire. Le détail de vos missions sera le suivant : - Réaliser les qualifications d'équipements (routeur, commutateur, firewalls). - Monter et tester des maquettes de référence conformes aux dossiers d'architecture. - Rédiger les documentations afférentes (ex : rapport de qualification). - Assurer le support N3 aux équipes de production. - Assurer des astreintes ou des présences sur horaires décalés (ponctuellement). Environnement technique à maîtriser : Equipements Juniper (routeur, firewall, switch) WAN avec la connaissance des protocoles IS-IS, MPLS, BGP Equipement Huawei Debugging des échanges TCP/IP Protocoles de supervision Utilisation des API
Mission freelance
Ingénieur Système & Réseau (H/F) 95
Mindquest
Publiée le
Cisco
Linux
Palo Alto
3 mois
100-460 €
Osny, Île-de-France
Dans une équipe de 5 Personnes, dédiée à l'IT (Architecture et mise en place) L'objectif est de mettre en place dans nos locaux l'infrastructure cible de nos clients ; réseaux, serveurs, stockages, AD en cohérence avec l'architecture IT définie. Puis de se déplacer l'installer dans le data center cible du client (à l’étranger). Missions de 2 -3 semaines afin de de finaliser les interconnexions, tester les procédures de sauvegarde/ restaure et supporter les équipes d'intégration. La mise en place de la sécurité (filtrage au niveau des firewalls, mise en place de règles au niveau du WAF, et configuration des VPNs). C'est dans ce contexte que notre client recherche un Ingénieur Système & Réseau H/F pour une mission en freelance. En tant que tel vos missions seront de : * Installer et configurer les composants réseaux (CISCO / Palo Alto) sur une infra client * Déployer l'infrastructure (reseau / stockage / serveurs linux / AD) et l'intégrer au site client * Fournir un support actif à la gestion des environnements d'intégration (gestion du parc / Location / inventaire/ fourniture de ressources)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6415 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois