Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 348 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Offre premium
Freelance
CDI

Offre d'emploi
Architecte DATA/IA

Ipanema Technology
Publiée le
Big Data
Business Intelligence
Data management

1 an
65k-150k €
Île-de-France, France

En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI
Big Data

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance

Mission freelance
Consultant BO (H/F)

Link Consulting
Publiée le
Back office
Big Data
ETL (Extract-transform-load)

1 mois
500-600 €
Toulouse, Occitanie

Notre client, un acteur majeur du secteur industriel, recherche un Data Engineer (H/F) à Toulouse, pour accompagner la gestion et l'optimisation des flux de données au sein de son infrastructure. Vous jouerez un rôle clé dans la mise en place et le suivi des processus ETL, ainsi que dans la visualisation des données. Vos missions : * Concevoir, déployer et optimiser des flux ETL (notamment avec des outils tels que Talend) pour garantir le bon traitement et l'intégration des données. * Gérer et transformer les données en informations exploitables à l’aide d’outils de visualisation comme Power BI et éventuellement Business Objects (BO). * Collaborer avec les équipes techniques et métiers pour comprendre les besoins en données et développer des solutions adaptées. * Assurer la qualité et la fiabilité des données, en mettant en place des processus de validation et de suivi. * Contribuer à l'amélioration continue des systèmes de gestion de données et des flux ETL. Compétences techniques : * Expertise dans la gestion des flux ETL avec des outils tels que Talend ou équivalents. * Bonne maîtrise des outils de visualisation de données, en particulier Power BI (et idéalement Business Objects). * Solides compétences en gestion de bases de données et en transformation de données. * Capacité à travailler en collaboration avec des équipes techniques et métiers pour assurer la cohérence des données.

Offre premium
CDI
Freelance

Offre d'emploi
Microsoft Fabric Engineer

Halian
Publiée le
Data management
microsoft

2 ans
98k-200k €
Belgique

1 jour sur site en Belgique Votre mission : Contribuer à l'optimisation des pipelines de données et à l'intégration de solutions innovantes dans notre infrastructure IT en tant qu'Ingénieur Microsoft Fabric. Ce que vous ferez : Améliorer l'efficacité des systèmes de gestion des données pour une prise de décision éclairée. Soutenir les équipes Data Science et DevOps avec une infrastructure fiable et évolutive. Développer des solutions pour automatiser les processus de gestion des données. Participer aux comités techniques pour recommander des améliorations. Documenter les processus et créer des guides utilisateurs. Ce que nous offrons : Une ambiance conviviale avec des collègues passionnés et professionnels. Un accompagnement par des experts et des formations continues. Autonomie dans un rôle varié, riche en opportunités d'apprentissage. Des outils et technologies de pointe. Un accompagnement personnalisé pour votre développement de carrière. Flexibilité avec des options de télétravail et un package salarial attractif. Un environnement de travail dynamique, axé sur l'innovation et le bien-être, avec des activités ludiques comme des food trucks et des barbecues. Votre profil : Expertise en gestion de données avec Microsoft Fabric et Azure. Bonne maîtrise des pipelines de données et de l'intégration continue. Connaissance de Python ou Spark, ainsi que des outils comme Power BI. Expérience avec les services cloud Azure et la sécurité des données. Certification DP600 préférée. Bilingue FR/EN avec un esprit analytique et proactif. Si vous êtes prêt à relever ce défi, n’hésitez pas à postuler !

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data

40k-45k €
Orange Lyon Lumière, Auvergne-Rhône-Alpes

Vos missions ? En tant qu'Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : - MongoDB, PostgreSQL, Power BI - Python, Scala, R - Docker, Jenkins - Gitlab/Github - Grafana

CDI

Offre d'emploi
Lead Data Engineer (H/F)

Amiltone
Publiée le
Big Data

45k-50k €
Lyon, Auvergne-Rhône-Alpes

Vos missions ? En tant que Lead Ingénieur Data, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud avec des technologies d'industrialisation à l'état de l'art. Vos traitements répondront à des besoins autour de problématiques complexes dans les domaines d'activité de l'entreprise (Réseau & système IOT, évolutions possibles sur comptage de l'eau, gestion des déchets, etc …) La stack Technique : MongoDB, PostgreSQL Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) Scala, R, Docker, Jenkins Gitlab/Github Grafana

Freelance

Mission freelance
Chef de projet CRM / ERP / Data

TEOLIA CONSULTING
Publiée le
Big Data
Gestion de projet

12 mois
100-700 €
Paris, France

Nous recherchons pour l'un de nos clients (dans le secteur de la distribution d'alcool) un Chef de Projet spécialisé en cadrage et pilotage de projet ayant un bagage solide dans l ’intégration systèmes . Missions : Piloter la migration de l'ancien ERP vers le nouvel ERP (en saas) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes Reconstruction de la plateforme data en parallèle un peu de TMA sur la plateforme digital client (CRM/ PIM DAM) Réalisations : Comprendre les métiers et leurs besoins (fonctionnel data) Spécification des échanges de données fonctionnels, API, gestion de projet en intégration systèmes, Formalisation et tenue du planning, Suivi des livrables et Coordination efficace des intégrateurs pour reconnecter l'ERP à tous les systèmes de notre plate-forme clients (CRM, Pim-DAM, extranet client, eshops..) et la nouvelle Plateforme Data qui sert aussi d’API management, Animation des ateliers métiers; aide aux arbitrages fonctionnels et techniques; aide à la rédaction et validation des spécifications par l’intégrateur. Réalisation de la documentation interne DSI : process et modèle métier, les flux data cible et les schémas d’architecture fonctionnels SI Définition de la stratégie de tests, du cahier et des jeux de données de tests, et animation de la réalisation des tests pour garantir le bon fonctionnement à la mise en production. Accompagner la conduite du changement, et la montée en compétences des utilisateurs (animer formations, manuels, forums,..)

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI
Big Data
SQL

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance
CDI

Offre d'emploi
Développeur Talend

SYZAN
Publiée le
Big Data
Talend

1 an
10k €
Île-de-France, France

Contexte : Dans le cadre de la digitalisation et de l'optimisation de nos flux de données, nous recherchons un Développeur Talend pour renforcer notre équipe Data. Ce poste vous permettra d’intervenir sur l’ensemble du cycle de vie de nos projets d’intégration de données, avec une attention particulière à l’optimisation des flux et à la qualité des données. Vous collaborerez avec des équipes métier et techniques pour construire des solutions robustes et évolutives répondant aux besoins stratégiques de l’entreprise. Missions principales : Conception et développement des flux de données : Concevoir, développer et maintenir des flux ETL sous Talend pour assurer l’intégration et la transformation des données. Travailler en collaboration avec les équipes fonctionnelles et techniques pour identifier les besoins en intégration de données. Documenter les processus de développement et les transformations de données. Optimisation et maintenance des flux : Optimiser les processus d’intégration de données pour garantir performance et fiabilité. Assurer la maintenance corrective et évolutive des flux existants en fonction des besoins de l’entreprise. Effectuer des tests unitaires et fonctionnels, et veiller à la qualité des données tout au long des transformations. Gestion de la qualité des données : Mettre en place des contrôles qualité des données dans les flux pour garantir leur conformité et fiabilité. Contribuer à la mise en place des règles de gouvernance de la donnée et aux bonnes pratiques d’intégration. Participation aux projets transverses : Participer aux projets de migration, de consolidation de données et de gestion de référentiels de données. Collaborer avec les autres équipes de développement pour assurer une cohérence et une interopérabilité des données dans l’ensemble du SI. Contribuer à la veille technologique pour proposer des solutions innovantes et améliorer les processus d’intégration.

Freelance
CDI
CDD

Offre d'emploi
Architecte Sécurité Cloud ./ Data (SASE : Netcop/OKTA)

Freelance.com
Publiée le
Big Data
Cloud
Cybersécurité

1 an
10k-80k €
Maisons-Alfort, Île-de-France

Client : Banque Localisation : Maison Alfort Poste : Architecte Sécurité Cloud ./ Data Expérience : +9 années Démarrage : ASAP Objectif: Analyser les besoins Participer aux ateliers afin d’étudier et de cadrer les besoins en sécurité • Préconiser les solutions et architectures cibles • Contribuer à la rédaction des dossiers d’architecture et spécifications techniques basés sur les principes de sécurisation de la donnée • Coordonner la sécurité des projets afin d'aider les équipes à fournir des solutions d'infrastructure sécurisées avec les recommandations et les exigences de la SSI • Participer aux audits de sécurité des applications et des socles techniques • Effectuer des évaluations des risques techniques, la modélisation des menaces, des examens de la sécurité de l'architecture, des conseils et des suivis répétables pour les projets impliquant des services destinés aux clients de Bpifrance • Garantir la prévention et la bonne gestion des risques techniques en proposant des améliorations aux politiques, directives et normes de sécurité • Communiquer efficacement tout en répondant aux besoins de sécurité et en validant que les mesures de sécurité appropriées sont en place • Superviser le socle technique (sécurité, réseau, gouvernance...) • Veiller la sécurité et la fiabilité des environnements déployés • Créer / mettre à jour le corpus documentaire • Rédiger les dossiers d'arbitrage en étant force de proposition et de décision en coordination avec les parties prenantes du projet Industrialiser et opérer les environnements Contribuer à la mise en place des outils d’automatisation et de monitoring adaptés à l’environnement client • Participer à l’implémentation des outils nécessaires à la mise en place des pratiques DevOps (Puppet, Chef, Gitlab CI, Travis CI, Cloud Build, etc.)| Compétences métier souhaitables : Qualifications (seraient un plus) Certification de sécurité (CISSP et / ou GIAC) • Les certifications de fournisseur (AWS / Azure / GCP) • Expérience de sécurité offensive (Pentest, red teaming), un atout pour Bpifrance • Certification SAFe Expérience pertinente de +9 ans ou plus dans le domaine de la sécurité de l'information ou une expérience pertinente ; • Au moins cinq ans d'expérience pratique sur au moins l'un des sujets suivants : • sécurité Microsoft, sécurité réseau, sécurité Linux;|

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data

35k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Les missions d'un Amiltonien : En tant que Data Engineer (H/F), vous serez en charge des missions suivantes : - Cadrer et challenger les besoins de nos métiers - Elaborer la stratégie, analyser, concevoir et développer les traitements de données - Optimiser les flux existants - Contrôler la qualité des données - Analyser les incidents de production et apporter des solutions La stack technique : - MS-BI (impératif) - Power BI, SSIS (apprécié) - Azure Data Factory (très apprécié)

CDI

Offre d'emploi
Chef de projet Data (H/F)

Amiltone
Publiée le
Big Data
Gestion de projet

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur

Au sein de l'équipe déjà existante, vous avez en charge les missions suivantes : - La gestion et le pilotage de projet - Gestion des équipes et des plannings - Reporting des activités et des tableaux de bord - Rédaction de procédures et modes opératoires - Formaliser les besoins implicites et explicites des clients - Participer au choix des différentes solutions Alors ? Prêt à devenir Amiltonien ? 🎉 N'hésitez pas à postuler si vous vous reconnaissez ! De formation supérieure BAC+5 (Master ou école d'ingénieur) spécialisé dans l'informatique, vous justifiez d'au moins 3 ans d'expérience dans un poste similaire. Vous maitrisez la gestion de projet car vous avez expérimenté la gestion de projet de bout en bout. Vous avez des connaissances techniques, notamment en BDD Oracle (SQL). Vous disposez d'une aisance relationnelle et d'une excellente communication orale et écrite. Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.

CDI

Offre d'emploi
Data Engineer (H/F)

Amiltone
Publiée le
Big Data

35k-40k €
Lille, Hauts-de-France

Vos missions ? Intégré à nos équipes sur nos projets en Factory ou chez nos clients vous interviendrez en tant que data Engineer. En tant que data Engineer (H/F), vous assurez les missions suivantes : Conception de solutions permettant le traitement de volumes importants de pipelines données. Ceux-ci doivent être suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists. Animation d'une équipe de professionnels de la Data sur toutes les étapes du traitement de la donnée. Mise à jour permanente sur les technologies et langages utilisés dans le but de partager ses connaissances et aider à l'avancement du projet.

CDI

Offre d'emploi
Data scientist (H/F)

Amiltone
Publiée le
Big Data

35k-40k €
Lille, Hauts-de-France

Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : • Concevoir et développer les futures fonctionnalités de la plateforme sous Google Cloud Platform. • Concevoir les flux d'alimentation et les tables (structure de donnée). • Automatiser et industrialiser les flux. La stack technique : • Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, …) via Spark. • Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients. • Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées. • Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). • Maîtrise des outils de développement : Git, Github, CI/CD, VSCode/Pycharm, Terminal. • Maîtrise de l'Anglais indispensable.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI
Big Data

24 mois
275-550 €
Massy, Île-de-France

Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité

348 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous