Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 424 résultats.
Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

Publiée le

24 mois
300-600 €
Paris, France
Télétravail partiel
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
CDI

Offre d'emploi
Lead Data Engineer

Publiée le
Python

60k-80k €
Paris, France
Télétravail partiel
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Freelance

Mission freelance
Concepteur/Rédacteur, Pôle Data & IA

Publiée le
Conception
Intelligence artificielle
Rédaction

6 mois
Paris, France
Télétravail partiel
Le prestataire aura pour mission principale d’assister la Responsable de la communication dans les activités suivantes : Activités principales : Recueil des besoins internes : Participer et animer des comités éditoriaux afin d’identifier les besoins et priorités internes. Collaborer avec différents interlocuteurs internes pour collecter des informations clés. Conception et rédaction de contenus : Identifier les thématiques pertinentes liées à la Data et à l’Intelligence Artificielle. Proposer des idées innovantes pour des contenus engageants et attractifs. Rédiger des articles, des publications pour les réseaux internes et divers supports de communication. Gestion et création de contenus multimédias : Produire des supports variés tels que articles, podcasts, vidéos, newsletters, Datalks, et événements. Traiter des demandes spécifiques en cohérence avec la stratégie de communication du Pôle. Concevoir et organiser des contenus adaptés à chaque canal pour optimiser leur impact. Organisation d'événements : Coordonner la planification et la logistique d’événements internes (Forum Data & IA, Datalks, etc.). Veiller à la qualité des interventions et au choix des thématiques, en collaboration avec les parties prenantes. Assurer la promotion des événements via les différents canaux de communication. Suivi de la production : Gérer la relation avec les prestataires externes (briefs, suivi, validations, etc.). Garantir le respect des délais et la qualité des livrables. Veille sectorielle : Rester informé des tendances et évolutions liées à la Data et à l’Intelligence Artificielle afin d’enrichir les contenus et d’ajuster la stratégie. Refonte de la newsletter interne : Imaginer, concevoir et piloter une refonte complète de la newsletter trimestrielle. Supports de communication à gérer : Le concepteur/rédacteur sera chargé de créer et d’administrer les contenus pour les supports suivants : Newsletter trimestrielle (tous les 3 mois) Newsletters thématiques (tous les 6 mois) Podcasts (tous les 2 mois) Datalks (tous les 2 mois) Portraits mensuels Forum Data & IA (événement annuel) Livre blanc (publication annuelle) Autres supports à développer en fonction des besoins du Pôle Data & IA
Freelance

Mission freelance
Responsable d’Application (RUN & DATA GCP)

Publiée le
Git
Reporting
Shell

6 mois
Lille, Hauts-de-France
Télétravail partiel
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
CDI

Offre d'emploi
Chef de projet Data & BI H/F

Publiée le
IDT

39k-45k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Forte capacité d’analyse et de résolution de problématiques. Esprit critique, force de proposition et goût pour le fonctionnel métier. Curiosité, autonomie et rigueur en toutes circonstances. Sens aigu de la qualité et de la sécurité des données. Excellent relationnel et esprit collaboratif. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
Architecte Data IA

Publiée le
Architecture
IA

12 mois
La Défense, Île-de-France
Télétravail partiel
Concevoir des architectures data et IA en réponse à des besoins d’analyse et de traitement exprimés par les métiers. Définir les architectures cibles, standards, frameworks et principes de modélisation des données. Structurer la gestion des métadonnées, des référentiels et des flux de données. Contribuer à la définition d’architectures de référence pour les plateformes data et analytiques. Identifier les sources de données de référence et encadrer les transformations et dataflows. Analyser l’existant, documenter les solutions et proposer des axes d’amélioration continue (performance, capacité, coûts, sécurité). Intégrer les enjeux de résilience, d’exploitabilité et de sécurité dès la conception des solutions. Accompagner les équipes de développement dans l’application des bonnes pratiques de conception et de codage. Travailler en coordination avec les équipes métiers, sécurité, opérations et support. Assurer une veille technologique et proposer des évolutions visant à améliorer l’efficacité du SI.
CDI
Freelance

Offre d'emploi
Data Engineer Opensearch/Kafka/Elasticsearch

Publiée le
Apache Kafka
Elasticsearch

3 ans
38k-85k €
400-660 €
Île-de-France, France
Objectif de la mission Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs Prestations demandées La mission consiste à: Support, automatisation et maintien en conditions opérationnelles des plateformes ELK/Opensearch/Kafka ( ELK etant la priorite) Participation aux developpmenent de l equipe data Analytics Support plateforme WWW Environnement anglophone
Freelance

Mission freelance
Data Engineer - LYON

Publiée le
Azure
Databricks
Python

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Intitulé du poste : Data Engineer Localisation : Lyon Expérience souhaitée : 5 à 7 ans en Data Engineering, idéalement avec une expérience en analyse de données Rôle et responsabilités du consultant recherché : Data Engineer confirmé Garantir l’intégration des sources de données nécessaires à la continuité du reporting interne et externe Assurer la continuité et le développement des flux de données entre les sources et les rapports Contribuer au plan de convergence des méthodes de mesure de la performance via les KPI Contribuer à la cartographie des flux de données et des KPI utilisés dans les deux organisations, ainsi que de leurs méthodes de calcul Être l’interface avec le Data Office afin de garantir les meilleures pratiques de développement Ce rôle sera un point de dépendance unique (Single Point of Dependency) Compétences techniques requises SQL / Python Databricks Data Lake & DataMart Développement de cubes Environnement Microsoft Gestion de projets techniques Qlik Autres compétences attendues Anglais niveau B2 / C1 Compétences interpersonnelles Travail en équipe Parcours et expérience Expérience dans des projets complexes en environnement international Description de la mission Support de l’équipe Data locale dans le cadre de la migration d’une plateforme de téléphonie Livrables attendus Ingestion des données dans le Data Lake Développement du DataMart Automatisation des flux de données avec Pegasus Développement de cubes Environnement technique Microsoft, AVAYA, GENESYS
Freelance

Mission freelance
Chef de projets IT – Data / BI / IoT ( Systèmes connectés )

Publiée le
Agile Scrum
Gestion de projet
IoT

3 ans
400-550 €
Maurepas, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la DSI d’un grand groupe, nous recherchons un Chef de projets IT Senior pour intervenir au sein du service Systèmes connectés. La mission s’inscrit dans un environnement Data / BI / IoT, avec des enjeux forts autour de la modernisation des plateformes, de la BI et du décommissionnement d’anciens systèmes. Le consultant interviendra sur plusieurs projets en BUILD et RUN, notamment autour d’une nouvelle plateforme IoT et de solutions BI / Reporting associées. Il jouera un rôle clé de Chef de projets avec une casquette Product Owner, en charge du pilotage opérationnel, du cadrage des besoins et de la coordination des équipes. -Missions principales Pilotage de plusieurs projets IT (Data / BI / Interfaces) Cadrage des besoins métiers et animation des ateliers Rédaction des Features et User Stories Organisation et pilotage des recettes fonctionnelles Suivi des développements, des plannings et des budgets Animation des comités projets et production des supports de reporting Coordination d’équipes multi-localisées (France / offshore) Participation aux cérémonies Agile / SAFe (daily, review, PI Planning…)
CDI
CDD

Offre d'emploi
Administrateur Bases de Données PostgreSQL / MySQL – Senior (H/F)

Publiée le
Cloud
MariaDB
MySQL

1 an
Ivry-sur-Seine, Île-de-France
Contexte Rattaché à l’équipe Administration des Bases de Données au sein de la DSI, le consultant intégrera une équipe de plus de 10 DBA dédiée à la mise en œuvre et à l’exploitation de projets de grande envergure . La mission porte sur l’ administration opérationnelle en production de bases de données critiques sur PostgreSQL et MySQL , avec une forte composante RUN, projets, automatisation et Cloud . Objectif de la mission Assurer l’ administration, l’exploitation et l’évolution des bases de données PostgreSQL et MySQL en environnement de production, tout en accompagnant les projets d’architecture, de performance, de sécurité et d’automatisation. Missions principales RUN / Exploitation Administration des bases de données PostgreSQL et MySQL . Support N3 / Expertise , en lien avec les équipes de développement et d’exploitation. Suivi du MCO et mise en place des procédures d’exploitation . Gestion des incidents, changements et problématiques de production. Gestion du PRA et de la continuité de service. Supervision, homologation et veille technologique . Projets & Architecture Participation aux projets d’architecture, de déploiement et d’évolution des SGBD. Optimisation des performances et de la configuration des bases. Maîtrise des opérations de patching, upgrades et migrations . Définition et mise en œuvre des stratégies de sauvegarde, restauration, PITR . Mise en place et gestion de la réplication , des clusters et de la haute disponibilité : PostgreSQL (Patroni) MySQL (Group Replication) Gestion du failover et des stratégies de bascule automatique. Automatisation & Cloud Étudier et accompagner le déploiement des SGBD sur des solutions Cloud / opérateurs . Proposer et mettre en œuvre des tâches d’automatisation pour les déploiements et l’administration. Utilisation et maintien des outils d’automatisation : Ansible, Git . Sécurité & Gouvernance Participation aux projets sécurité, audit et gestion des accès . Contribution aux bonnes pratiques de conformité et de sécurité des données. Environnement technique SGBD : PostgreSQL, MySQL, MariaDB Haute disponibilité : Patroni, MySQL Group Replication Automatisation : Ansible, Git Cloud & conteneurs : OpenStack, OpenShift, Docker Systèmes : Linux (RHEL, Ubuntu, CentOS, Oracle Linux, AIX) Sauvegardes : Commvault, Veeam, DataDomain (ou équivalents) Virtualisation : VMware Compétences techniques Impératives : PostgreSQL – Expert MySQL – Expert Importantes : MariaDB – Confirmé Souhaitables : Cloud Automatisation (Ansible, Git) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Freelance
CDI
CDD

Offre d'emploi
Developpeur Python Data - Actuaurie

Publiée le
CoreData
Python
Recette

36 ans
Paris, France
Télétravail partiel
MISSION Dans le cadre de projets de transformation et d’évolution de systèmes d’information en assurance vie, nous recherchons des consultants spécialisés en développement Python et data. Le consultant interviendra sur des problématiques de traitement de données, de modélisation actuarielle et d’automatisation de calculs métiers, au sein d’équipes projets pluridisciplinaires. Les principales activités incluent : - Analyse des besoins exprimés par les équipes métiers - Rédaction de spécifications fonctionnelles et techniques - Développement de traitements Python orientés data (batch, pipelines, reporting, calculs statistiques et financiers) - Contribution aux modèles actuariels et aux projections financières - Mise en place des contrôles qualité et optimisation des performances - Réalisation des tests et support aux phases de recette - Déploiement et mise en production - Documentation technique La mission s’inscrit dans un contexte long terme, avec des phases de montée en charge au démarrage, puis des cycles réguliers liés aux évolutions métiers et réglementaires.
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance

Mission freelance
Business Analyst / Offering Manager Data IA

Publiée le
Business Analyst

12 mois
400-450 €
Montreuil, Île-de-France
Télétravail partiel
Je recherche un Business Analyst / Offering Manager Data IA pour intégrer une top équipe IA Data au sein d' une grande banque internationnal La mission d'A3I: Industrialiser la conception, le développement et la mise en œuvre de solutions IT (applications, Data, moteurs d'Intelligence Artificielle, etc.). Généralisation de l'utilisation des plateformes de Data et d'Intelligence Artificielle au niveau du Groupe à travers des plateformes de développement et d'automatisation Favorisation de l'innovation des entités grâce à la Data et à l'Intelligence Artificielle. Au sein d'A3I, l'équipe OPEX&T à la responsabilité de la montée en maturité de l'ensemble d'A3I sur plusieurs aspects. En particulier sur la dimension relation client et pilotage des offres par lese besoins. A ce titre, OPEX&T cherche à renforcer son équipe d'offering managers travaillant sur l'offre interne DataHub V2. La mission L'offering Manager DHV2 prend en charge le contact avec le client afin de lui présenter l'offre, de vérifier l'adéquation de celle-ci avec ses besoins propres. Il est ensuite responsable d'assurer une expérience d'abonnement optimale en collaboration avec l'équipe des parcours d'abonnement. Par la suite, il suit la relation avec le client et s'assure de la bonne satisfaction de ce dernier. Par ailleurs, il assure un suivi des besoins de l'ensemble des clients via des réunions régulières (modalités TBD). Le contexte technique: la plateforme DataHub V2 est une offre de données moderne s'appuyant sur la mise à disposition de nos cliens d'instances Spark, Starburst (Trino), Astronomer (Starburst) et la gestion de ces dernières. Une connaissance générale des enjeux Les missions sont: production de supports (type présentation powerpoint) portant sur plusieurs dimensions de l'offre (niveau de service, taux d'utilisation...) entretiens avec les représentants des utilisateurs pour la capture des données nécessaires entretiens avec les équipes en charge de la production du service synchro régulière avec le reste de l'équipe
Freelance
CDI
CDD

Offre d'emploi
Administrateur Bases de Données SQL Server – Confirmé (H/F)

Publiée le
Microsoft SQL Server
Microsoft Windows
Powershell

1 an
Paris, France
Contexte Le département Bases de Données Distribuées de la Direction Infrastructure renforce ses équipes et recherche un Ingénieur DevOps / Administrateur de bases de données SQL Server confirmé pour intervenir sur des environnements critiques de production. La mission s’inscrit dans un contexte infrastructure, haute disponibilité et automatisation , avec des exigences élevées en matière de performance, sécurité et continuité de service . Objectif de la mission Administrer, exploiter et faire évoluer les environnements SQL Server , tout en contribuant à l’automatisation et à l’industrialisation des pratiques via des outils DevOps. Missions principalesAdministration & exploitation SQL Server Installer, configurer et maintenir les moteurs SQL Server et les clusters Windows . Administrer les environnements Always On (haute disponibilité). Gérer l’exploitation quotidienne : Support utilisateurs Gestion des incidents Suivi du PCA / PRA Optimiser les performances SQL Server . Gérer la sécurité , les accès et les licences . Automatisation & DevOps Développer et maintenir des scripts d’automatisation en PowerShell , DSC et .NET . Contribuer au développement et à l’utilisation d’ API . Utiliser et intégrer les outils DevOps : Git, Artifactory, Jenkins, Ansible . Exploitation & supervision Mettre en œuvre et exploiter les sauvegardes et restaurations . Participer à la supervision des plateformes (outils type Zabbix ). Assurer une astreinte régulière (environ 1 semaine toutes les 7 semaines). Qualité & amélioration continue Participer aux études d’évolution des infrastructures. Proposer des axes d’amélioration des performances et de la fiabilité . Assurer une veille technologique continue. Environnement technique SGBD : SQL Server Haute disponibilité : Always On Systèmes : Windows, clusters Windows Automatisation / DevOps : PowerShell, DSC, .NET, Git, Jenkins, Artifactory, Ansible Virtualisation : VMware Supervision : Zabbix (ou équivalent) Composants complémentaires : SSAS Compétences techniques Impératives : SQL Server – Expert Always On – Expert Systèmes Windows – Confirmé PowerShell – Expert Appréciées : DSC / .NET Développement d’API Outils DevOps SSAS VMware Supervision (Zabbix ou équivalent) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Freelance

Mission freelance
Business Analyst / Data Modeler – Référentiel Assurance

Publiée le
Business Analyst
Java
Modélisation

6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte & missions (2 phases) 2–3 mois – Modélisation data (3NF) Collecte/qualification des données, conception schéma logique + DDL (tables, PK/FK, contraintes, index). Cohérence & performance (tuning SQL), traçabilité/audit/historisation. Catalogue de données, doc technique/fonctionnelle, participation ateliers. Conseil aux BA/devs pour écrans, interfaces, workflows, règles métiers. Expérience prouvée en modèle de données complexe requise. 2–3 mois – Rôle BA (Agile) Ateliers Métiers/IT, rédaction user stories + critères d’acceptation. Support devs, qualification avant recette, suivi anomalies. Specs fonctionnelles, modes opératoires, accompagnement au change. Compétences Modélisation data (Expert) , DBA Oracle/SQL (Confirmé) . Java 21, Spring Boot 3, Security, Batch, Angular 19, JS/TS, REST (Confirmé) . Sécu applicative (notions), JIRA/Confluence (Confirmé) , API/DB/Webservices (Confirmé) . Communication, rigueur, leadership d’ateliers. Modalités Lyon (3 j/sem sur site), hybride.
Freelance

Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique

Publiée le
Snowflake

1 an
500-550 €
Belgique
Télétravail partiel
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
424 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous