L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 206 résultats.
Offre d'emploi
Technicien d'exploitation (H/F)
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
28k-30k €
Paris, France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Econocom Services & Solutions, l'activité Services en région Ile De France accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Vous intégrerez une équipe de 3 personnes dans un secteur de pointe basé dans le 15ème arrondissement. Vos responsabilités : • Superviser des éléments d'infrastructure ( réseau, téléphonie, sécurité) • Gérer administrativement les éléments détectés (gestion des escalades) au sein d'un centre opérationnel • Traitement des tickets N1 Référence de l'offre : yk29j6kluj
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Mission freelance
SAP Master data (SD/MM)
ASENIUM
Publiée le
Master Data Management (MDM)
6 mois
Île-de-France, France
Je recherche actuellement pour mon client final, un consultant SAP Master Data avec une solide expérience MM/SD pour un projet autour de la structuration et gouvernance des données produits dans SAP. Aujourd’hui, plusieurs équipes (achats, supply, commerce, finance) gèrent leurs propres fichiers, ce qui crée parfois des incohérences entre les groupes de marchandises, familles produits, hiérarchies et la valorisation financière. La mission consiste donc généralement à : 1. Centraliser et structurer les données définir un référentiel unique dans SAP harmoniser groupes de marchandises, familles produits, hiérarchies 2. Nettoyer et fiabiliser les données supprimer les doublons corriger les incohérences entre fichiers Excel et SAP mettre en place des règles de création/modification 3. Mettre en place une gouvernance définir qui crée quoi standardiser les processus de gestion du Master Data Démarrage-ASAP
Offre d'emploi
Architecte Data Azure / Databricks
xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI
12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake
12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Offre d'emploi
Product Manager Expert Data / BI (/NB) F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
PMO secteur Data H/F
CELAD
Publiée le
42k-48k €
Antibes, Provence-Alpes-Côte d'Azur
Dans le cadre du développement de nos activités à Sophia Antipolis, nous recherchons un PMO confirmé (H/F) pour intervenir chez un leader mondial de l’industrie du voyage , opérant des plateformes critiques à l’échelle internationale. Vous intégrerez un environnement stratégique au sein d’un centre d’excellence dédié à la performance des projets et programmes d’envergure. Votre mission Vous pilotez l’orchestration complète de projets complexes de migration de bases de données , en garantissant la continuité d’activité, la sécurité des données et la maîtrise des risques. Vous intervenez de bout en bout : de la définition de la stratégie jusqu’à la sécurisation de la mise en production. Vos responsabilités Définition & pilotage stratégique Élaborer et conduire la stratégie globale de migration (planning, ressources, gouvernance). Assurer la coordination des équipes techniques, métiers et infrastructures. Garantir la visibilité et l’alignement des parties prenantes au niveau international. Apporter une compréhension solide des technologies bases de données cibles dans un contexte de migration. Challenger les choix techniques et sécuriser les décisions d’architecture. Superviser les phases de tests, validation et bascule. Identifier, anticiper et piloter les risques, impacts et changements. Gérer des dépendances complexes applicatives et infrastructures. Assurer la continuité de service sans interruption business. Veiller au respect des exigences de sécurité, conformité réglementaire et intégrité des données . Garantir la traçabilité et la qualité des livrables.
Mission freelance
Administrateur système et réseau N2
Ness Technologies
Publiée le
Administration réseaux
Administration système
OS Windows
6 mois
Paris, France
Fiche de mission – Administrateur Systèmes Windows N2 (H/F) Localisation : Paris Durée : 4 à 6 mois Démarrage : À définir Contexte de la mission Nous recherchons un Administrateur Systèmes N2 orienté Windows . La mission est principalement axée sur l’administration systèmes (80%) avec une part complémentaire sur les sujets réseaux (20%). Missions principalesAdministration Systèmes (80%) Assurer l’exploitation et l’administration des environnements Windows (niveau N2) Gérer les incidents, demandes et problèmes via l’outil de ticketing Participer au maintien en conditions opérationnelles (MCO) des infrastructures Réaliser les actions d’administration courante (comptes, droits, services, correctifs, supervision) Participer aux mises à jour, patch management et opérations de maintenance Documenter les procédures et les actions réalisées Support Réseaux (20%) Prendre en charge les incidents réseaux de premier niveau avancé Effectuer les diagnostics de connectivité (LAN/WAN, VPN, DNS, DHCP) Escalader vers les équipes expertes si nécessaire Environnement technique Systèmes Windows Server Active Directory (GPO, gestion des comptes et droits) Environnements Microsoft (DNS, DHCP) Outils Outil de ticketing (ITSM) Outils de supervision Patch management Réseaux – connaissances attendues Bases TCP/IP LAN / VLAN VPN Diagnostic de connectivité
Offre d'emploi
Data Analyst sénior
Proxiad
Publiée le
Microsoft Excel
Python
SAS
40k-45k €
Lille, Hauts-de-France
🚀 Qui sommes-nous ? Proxiad est une ESN à taille humaine, attachée à la proximité, à la qualité de ses missions et à l’accompagnement de ses collaborateurs. Dans le cadre d’un projet stratégique chez l’un de nos clients, nous recherchons un Consultant Data / Analyst expérimenté pour accompagner la transformation de notre client. 🎯 Votre mission Vous jouerez un rôle clé dans l’analyse et la valorisation de la connaissance client afin d’éclairer les décisions stratégiques. À ce titre, vous serez amené(e) à : Analyser le portefeuille clients : segmentation, comportements, churn, fidélisation, valeur client Concevoir et piloter des études ad hoc à forte valeur stratégique Produire des tableaux de bord et indicateurs clés (Power BI) Identifier des opportunités de croissance et d’optimisation Formuler des recommandations claires et actionnables auprès des équipes métiers et de la direction Garantir la qualité, la cohérence et la fiabilité des données exploitées
Mission freelance
Consultant MOA Data / SQL – Secteur Protection Sociale
Comet
Publiée le
AMOA
1 an
400-650 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation SI, un grand acteur de la protection sociale renforce ses équipes pour accompagner une migration majeure de référentiels métiers . Ce projet à fort enjeu s’inscrit dans une feuille de route nationale avec des impacts réglementaires et opérationnels importants. Au sein d’une équipe MOA, vous interviendrez sur un projet structurant autour de la fiabilisation des données et de la migration vers un système cible fédéré . Vos responsabilités Participation à la préparation de la migration des données Fiabilisation et contrôle des référentiels Réalisation des recettes fonctionnelles et data Analyse et suivi des anomalies Interface entre équipes métiers et IT (MOA / MOE) Contribution à l’ accompagnement des utilisateurs Rédaction de livrables et documentation
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Data Engineer - ETL Specialist
Insitoo Freelances
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data Engineer for our client in Brussels. Key responsibilities : Implementing new or modified functionality on the data platform and building data pipelines on this data platform Working with other data engineers, a functional analyst, solution architect, technical architect, and QA engineer. Together, they form an agile team. Relying on your technical knowledge and skills in Confluent Data Platform, Python, Airflow, NIFI, etc., to build functionality and data pipelines. Programming and delivering working code Consulting with colleagues Validating solutions and reviewing colleagues' code, following up on operational issues Writing documentation Evaluating and estimating user stories.
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Mission freelance
Data Architect
Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality
3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Mission freelance
Data Engineer (Projet de Migration MGTS)
HAYS France
Publiée le
Python
Snowflake
Stambia
3 ans
100-450 £GB
Lille, Hauts-de-France
Mission principale : Dans le cadre du build d’un projet de migration technique pour une de nos BUs du groupe (MGTS), nous recherchons un Data Engineer. Il travaillera principalement avec Elodie Madoux, cheffe de projet Data. Il devra être assez autonome, même si nos Tech Lead seront en supervision si besoin. Nous recherchons donc un profil ayant déjà quelques années d’expérience. Compétences clés recherchéesIntégration & ETL Lecture, compréhension et manipulation de flux de données Maîtrise opérationnelle de Talend Maîtrise de la solution Stambia / Semarchy Langages Excellente maîtrise du SQL Niveau intermédiaire en Python Environnement Data Bonne connaissance de Snowflake Visualisation (atout) Maîtrise de Tableau appréciée
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6206 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois