Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Chef de projet fonctionnel Data sur Bordeaux
Technodym est a la recherche d'un Chef de projet fonctionnel Data pour son client basé a Bordeaux Fiche de poste : Mission : Mesurer les impacts du projet en s’intégrant à la feuille de route globale de la data Proposer des dispositifs adaptés auprès de l’ensemble de nos partenaires pour gérer au mieux cette double transformation auprès des utilisateurs Planifier des travaux, les prioriser avec le métier, piloter leur mise en œuvre auprès des partenaires et d’accompagner leur déploiement auprès des utilisateurs Savoir communiquer sur les activité auprès du programme et des équipes. Les atouts du profil: Savoir challenger les métiers Avoir une première expérience sur un projet Data/IA Avoir une bonne communication, savoir animer un groupe Forte capacité à savoir travailler en transverse Savoir gérer une crise et des ruptures de travail Avoir une connaissance en projet complexe et conduite du changement Une connaissance d’outils « Data » tels que Dataiku, BigQuery, … serait un plus Si vous êtes disponible et intéressé n'hésitez pas à m'envoyer votre CV
Offre d'emploi
Data Engineer - Développeur JAVA / DevOps
Chers consultants, Nous sommes à la recherche d'un Ingénieur Data - Développeur JAVA / DevOps Senior pour rejoindre notre client, une banque leader à Paris. Missions La prestation aura lieu au sein de la banque exerce une responsabilité mondiale sur le Système d’Information contribuant à la réalisation des objectifs des métiers de la banque Commerciale, du Financement et du Trade. Dans ce contexte, la prestation Data Engineer (Développeur Java/DevOps) aura pour objectifs : • Comprendre les besoins clients dans le but de définir les solutions les plus adaptées • Assurer le développement des nouvelles fonctionnalités liées l’intégration, l’exposition et l’exploitation des Données • Définir et organiser les contrôles nécessaires à la mise en qualité de ces Données • Développer en Java/Spark/ des traitements de transformation et de production de données • Développement d’un moteur de règles • Être garant de la qualité du produit sur les aspects code, documentation, testabilité et performance • Designer des chaines optimisées CI/CD en collaboration avec les équipes DEVOPS • Participer à l'amélioration continue et à la revue de code
Offre d'emploi
Delivery & Data Solutions Director
Pour un client dans le secteur de l'eau, nous recherchons un Delivery & Data Solutions Director. Contexte + Missions : Le client a entamé il y a 4 ans une transformation digitale. Cette transformation s’accompagne d’un changement de modèle opérationnel (offshoring) et une accélération de la transformation des SI (Neo – Ordonnancement , Naia – Contact Clientèle, Ioda – Monitoring & Alerting opérationel, Viseau – Relation B2Gov, Pure Control – Optimisation de consommation, etc.). Pour ce faire, la DSI s’appuie principalement sur 2 usines de développement : une Digital Factory hybrid France & Maroc, et un Centre de Delivery Offshore (India). Objectifs et livrables : La DSI France du groupe recherche aujourd’hui son Directeur du Delivery & Data Solutions. Intégré à la DSI France du client, sous l’autorité directe du DSI France, le Directeur du delivery & Data solutions a 2 responsabilités clés : 1 - Piloter les usines de Delivery en transverse, et organiser directement les activités de la Digital Factory (50+ ETP) : Ø Normes & standards de développement Ø Méthode & process de delivery (actuellement SAFE, Scrum & Waterfall selon les trains & squads) Ø Transformation DevSecOPS Ø Transformation vers le Test Driven Development & Automatisation Ø Qualité des développements & activités de run Ø Pilotage des enablers de delivery Ø Définition et suivi des indicateurs de performance Ø Gestion des budgets 2 – Responsabilité de bout en bout de l’équipe BI & Data solutions Ø Piloter les activités de BI de bout en bout : roadmap, technologie, organisation, delivery, run & maintain (stack Power BI, Décommissionnement SSRS & BO) Ø Delivery & technical ownership de la data platform (MS Azure) Pour mener à bien sa mission, le Directeur du Delivery & Data Solutions : Ø Pilotera une équipe de projects manager & experts techniques (profils RTE, Delivery Manager, Product Manager Data & BI, tech lead) Ø Pilotera en transverse les équipes de la digital factory Ø Pilotera les activités de Delivery chez nos partenaires de développement Ø Travaillera en transverse avec les autres domaines de la DSI, en particulier o Avec les 3 directeurs de Domaine Fonctionnel : Opérations, Clientèle, Corporate o Avec les directeurs de fonction transverse IT : architecture, sécurité, infrastructure, support, etc. o Avec les métiers
Offre d'emploi
Expert Dataiku (H/F/NB)
Au sein d'une Direction Data d'un grand group, vous serez rattaché au Head of Data Science au sein d'une équipe composée de plusieurs Data Scientists et de Business Analysts. L'intelligence artificielle et la data science sont clés pour améliorer l'expérience client et et l'efficacité opérationnelle chez notre client qui recherche un Senior Data Scientist ayant une bonne maitrise des environnements technique ci-dessous. Les objectifs de cette équipe sont d'identifier des cas d'usage qui apportent de la valeur aux différentes fonctions (commerciales, marketing, opérations, finance, risques ...), de les réaliser et de les déployer dans le SI. En complément, l'équipe anime une communauté de Data Scientists afin de favoriser les réplications de cas d'usage et l'acculturation du groupe. L'intelligence artificielle (IA) et la data science est un pilier majeur du développement de notre client : • vous travaillerez sur des projets IA et Data Science visibles et stratégiques à forts enjeux financiers et humains pour une grande diversité de fonctions, de cas d'application et données. • vous avez de l’expérience en séries temporelles ainsi que dans l’extraction d’information à partir de document divers (OCR et Intelligent Document Processing). • vous contribuerez à la recherche et développement sur de nouveaux produits d'IA et de Data Science pour le groupe et en particulier sur des cas d'usage NLP et/ou GenAI. • vos projets seront de vrais défis techniques mais également humains. Vous devrez convaincre les métiers de se transformer grâce au Machine Learning et à la Generative AI. Développement des modèles de data science et d'intelligence artificielle sous Dataiku et Domino (code Python)
Offre d'emploi
Développeur python / Big Data - GCP (H/F)
Missions : Le consultant interviendra au sein d’une équipe IT. La mission portera sur le suivi et la proposition de solution d'intégration / industrialisation des modèles algorithmiques développés par les équipes : Accompagnement des équipes Préconisations de bonnes pratiques de développement Python orienté ML Structuration de projet de type ML/DL Maitrise indispensable de l'outil Dataiku Bonnes connaissance DE GCP Intégration de containers Docker, Openshift Relais technique envers les interlocuteurs (francophone / anglophone) Participation aux projets suivant les sollicitations Gestion de l’environnement de DEV (Serveurs, BDD, etc.) Préconisations CI/CD
Mission freelance
DATA SCIENTIST EXPERT
• Collecter, nettoyer et prétraiter des ensembles de données complexes provenant de diverses sources. • Concevoir, développer et mettre en œuvre des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problèmes commerciaux spécifiques. • Effectuer des analyses statistiques approfondies pour identifier des tendances, des modèles et des anomalies significatifs. • Collaborer avec les équipes interfonctionnelles pour comprendre les besoins métier et traduire ces besoins en solutions techniques. • Communiquer les résultats des analyses complexes aux parties prenantes non techniques. • Organiser, reporter et alerter les différents interlocuteurs et le responsable DaIA du déroulement des sujets
Mission freelance
DATA ANALYST DATAIKU
Je recherche pour un de mes client un DATA ANALYST DATAIKU avec un anglais fluent ayant plus de 6 ans d ' experience afin d'intégrer la direction Data Office & RPA / Reporting Analytics nouvellement créée Vos activités principales consisteront à accompagner les métiers dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Les outils utilisés afin de répondre aux besoins de nos clients sont OBIEE Analytics, TABLEAU, SQL, SAS et Dataiku. Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe o Mettre en place une solution d’automatisation de la production d’un reporting o Automatiser la production du lineage d’un applicatif o Organiser des comités de pilotage o Construire un Dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs o Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données o Rédiger des spécifications II – Reporting et extractions • Extractions de données, y compris pour la construction des budgets • Construire des indicateurs • Créer et maintenir des Dashboard TABLEAU • Suivre les KPI
Offre d'emploi
Architecte Data (FH)
Contexte Le consultant interviendra au sein de la Direction Data Office dans l’équipe Stratégie & Transformation Data. Principales Responsabilités : • Participer à la définition et à l'implémentation de l'architecture cible Data conformément aux besoins stratégiques de l'entreprise. • Assurer la conception et la mise en œuvre des solutions techniques liées aux projets Data, en mettant l'accent sur les outils Google Cloud Platform (GCS, BigQuery, Dataproc, Dataform, etc.). • Collaborer étroitement avec les équipes métier pour comprendre leurs besoins et proposer des solutions adaptées, tout en assurant une gouvernance et une conformité aux standards. • Contribuer à l'urbanisation des données en définissant des standards et des bonnes pratiques pour garantir la qualité et la cohérence des données. • Participer à la mise en place et à l'évolution des tableaux de bord permettant le pilotage des activités métier, en intégrant des fonctionnalités avancées telles que l'intelligence artificielle et l'automatisation des processus.
Offre d'emploi
Architecte Solution F/H
Contexte : Dans le cadre de l'équipe multiculturelle de l'Architecture des Solutions, vous jouerez un rôle essentiel dans la définition de l'évolution et de l'intégration des données dans le système d'information de nos clients. En tant qu'architecte spécialisé dans l'analyse des données, vous concevrez et livrerez des solutions d'architecture logicielle hautement sécurisées, résilientes et évolutives. Vous exploiterez votre expertise en modélisation, gouvernance, intégration et sécurité des données, ainsi que votre maîtrise de Python pour soutenir les développeurs. Votre expérience avec les datamarts et les meilleures pratiques d'agrégation des données seront précieuses. Vous avez une expérience significative dans la conception et le déploiement de solutions sur AWS, conformément aux normes GDPR et NIS. En tant que leader, vous communiquerez clairement vos choix d'architecture et soutiendrez les équipes de projet. Mission : Veiller en permanence à ce que les évolutions intervenant dans le cadre de la mission respectent la cohérence et la pertinence fonctionnelle de l’ensemble du système d’information et de l’architecture cible. Piloter et contrôler l’intégration et l’adaptation fonctionnelles des éléments mis en place dans le cadre de la mission. Assurer un support méthodologique et fonctionnel aux différentes équipes impactées par les éléments mis en place dans le cadre de la mission (données, services,…). Intégrer en permanence une démarche qualité (mise en œuvre de référentiels de bonnes pratiques, implantation de démarches fondées sur l'amélioration continue).
Mission freelance
Expert Dataiku Python, Git, Power BI
Au sein de l’équipe Data, nous développons des outils et des applications et accompagnons l’ensemble de l’équipe business team dans leur digitalisation, notamment au travers de Dataiku et Amazon Web Services. The main activités are: • Dataiku platform administrations • Development of Dataiku plugins (in python) • Mentoring of our users (Data Analyst, Data Engineers, Data Scientists) on Dataiku platform • Support level 1 on Dataiku platform Secondary activities: • Data use case implementation through Dataiku
Mission freelance
Développeur .Net/Python (projet IA) Apya
L'application de gouvernance des modèles de ML pour notre client vise à interroger diverses ressources telles que Azure Machine Learning, Azure Databricks, AWS Databricks et AWS Sagemaker afin de récupérer les métadonnées des modèles d'IA qui y sont hébergés. Ensuite, ces métadonnées sont stockées et une API est mise en place pour permettre à un front-end de les consommer et de les afficher dans un tableau de bord, facilitant ainsi le suivi des modèles en termes de mise à jour, d'utilisation et de performance. L'équipe devra prendre en charge les tâches suivantes : Développement, mise à jour et maintenance du code infrastructure Terraform requis dans Azure et/ou AWS, en respectant les règles de sécurité et les pratiques internes du client. Gestion des workflows Github pour automatiser les déploiements et analyser le code. Développement, mise à jour et maintenance du code back-end permettant de récupérer les métadonnées provenant de Azure ML, Databricks ou Sagemaker. Stockage des métadonnées des modèles dans une base de données et mise à jour régulière de celles-ci. Exposition d'une API pour que les données soient consommées par un front-end (le front-end étant en dehors du périmètre du projet). Concernant la Plateforme LLM Hub du client : La plateforme LLM Hub du client fournit aux équipes de développement un accès aux LLM tels que OpenAI/Mistral via Azure, Claude via AWS Bedrock, et éventuellement d'autres à l'avenir. Son objectif est de centraliser la consommation des modèles, gérer le reporting de cette consommation et optimiser les coûts grâce à un provisionnement du débit. L'équipe devra également gérer les tâches suivantes pour la Plateforme LLM Hub : Développement, mise à jour et maintenance du code infrastructure Terraform nécessaire dans Azure et/ou AWS, en conformité avec les règles de sécurité et les pratiques internes du client. Gestion des workflows Github pour automatiser les déploiements et analyser le code. Développement, mise à jour et maintenance du code back-end permettant l'exposition des APIs d'OpenAI et Mistral sur un API Manager centralisé, ainsi que des fonctions permettant de suivre la consommation des applications sur Azure et AWS. Développement de plugins visant à faciliter, optimiser et accélérer le développement des applications exploitant les LLM. Possibilité d'utiliser des connaissances en React pour mettre à jour une interface web développée pour gérer une application de chatbot. Veille technologique sur les nouvelles solutions de LLM et leur intégration dans la plateforme. Les technologies utilisées comprennent : Terraform pour Azure et AWS, Azure OpenAI, Azure Mistral, AWS Bedrock, Github, Github Actions, Github Workflows, Python, dotnet, React, Azure Function, AWS Lambda, Azure API Manager, Azure Container Apps/Container Instance, CosmosDB et SQLDB. TJM : 550€ - 2 jours de télétravail par semaine
Mission freelance
Administrateurs SIEM/SOAR
Description de la mission Evolution dans un environnement international Design de Solutions - Conception et mise en place de SIEM Maintien en conditions opérationnelles et de sécurité des différentes solutions de sécurité Supervision et intervention sur les incidents de production Support aux équipes projets sur des points complexes relevant de votre domaine de compétence Mise en œuvre de solutions d’automatisation Application et développement des bonnes pratiques métier et de sécurité Amélioration continue des outils et des processus Compétences techniques et fonctionnelles Administration SIEM : Splunk, QRadar, MS Azure Sentinel Administration orchestration SOAR (Palo Alto, Splunk) Administration système Linux (Ubuntu, CentOS) Architecture technique et fonctionnelle Design de solutions Automatisation : Ansible, Docker, Terraform Supervision : Centreon, Zabbix Scripting : Python, Bash, html Solutions Backup/Restore Architecture technique Localisation 1 profil à Toulouse 1 profil à Paris / Noisy Le Grand
Offre d'emploi
EXPERT INTÉGRATION SOLUTION HYPERVISION BMC SENIOR (+ 12ans d'expérience )
Périmètre fonctionnel : banque d'investissement / front Les principales tâches de la missions sont les suivantes : Assistance aux projets de convergeance des outils d'hypervision Participation au projets d'études pui mise en oeuvre d'une nouvelle solution d'hypervision Gestion des évolutions et des intégrations du moyen Support, expertise et assistance technique des entités, d’exploitation et de support de production Gestion de l'industrialisation et la gestion des améliorations du service d'hypervision Gestion de l’intervention en escalade sur le diagnostic et la résolution d’incidents ou problèmes Développements avancé et les configurations de l'outil Développement d'outils Développement : Shell, Script, Python Les livrables attendus sont : Assistance aux projets d'évolutions de l'infra d'hypervision Réalisation des Pocs Evolution des actions prises en charge Mise à jour de la documentation
Offre d'emploi
Ingénieur(e) test QA Comptabilité H/F
Nous recherchons pour l’un de nos clients, un(e) Ingénieur(e) test QA Comptabilité H/F, basé en Ile-de-France . Contexte : La mission se déroulera au sein de la DSI, au sein d'un programme sur la mise en place de la comptabilité auxiliaire. Dans ce cadre, vos principales missions seront : Qualification du périmètre comptable dans le cadre du projet Rédactions sous SQUASH et exécutions des cas de tests dans le cadre de la qualification comptable Afin d'exercer au mieux la mission, avoir la capacité à appréhender le métier de la retraite et un périmètre fonctionnel et technique complexe, Environnements techniques : Squash/ Confluence Vous avez une maitrise des différents langages de script notamment sur Python. Test de l'interface utilisateur et front-end avec des frameworks comme Selenium. Une connaissance du logiciel de comptabilité Célia est un plus
Mission freelance
Architecte Data Azure et Snowflake
Architecte Data Azure et Snowflake . - Il maîtrise le panel des exigences fonctionnelles et non fonctionnelles à collecter afin d'assurer l'efficience opérationnelle et la pérennité de la data platform. - Expert et maîtrise tous les outils et services de l’écosystème Azure et a des facilités pour étendre votre champ de compétences. - proactif/ve sur la veille technique et la capitalisation et veille à garder toujours un temps d'avance sur l'état de l'art du secteur afin de pouvoir guider ses clients. - En tant qu'architecte expérimenté(e) il peut intervenir sur des missions opérationnelles pour concevoir la solution cible ou en phase de cadrage amont pour guider les choix et construire les roadmaps. - pédagogue et sait communiquer et vulgariser des réflexions complexes pour les rendre accessibles à tous.
Mission freelance
Développeur Backend DATA
Pour notre client dans le secteur du luxe, nous recherchons un Développeur Back-end Data. Anglais courant obligatoire. Freelance uniquement. Durée mission : 8 mois Contexte de la mission : XXX recherche un développeur backend Data event pour renforcer son équipe d’observabilité. Il/elle possédera une expertise technique approfondie en développement Backend au sein d’un écosystème Azure sur une architecture orientée évènement. Objectifs/Descriptif de mission : - Concevoir et implémenter des solutions d’intégration et de transformation de données (ETL) pour améliorer le service d’observabilité (évènements temps réel) - Collaborer activement au développement et à l’optimisation de notre plateforme d’observabilité. - Collecter des données de sources diverses et modéliser ces données pour en simplifier la visualisation et l’analyse. Compétences techniques requises : Technologies Backend : - ElasticSearch ET Logstash (expertise obligatoire) - SQL (expertise obligatoire) - Python (expertise obligatoire) - Maîtrise de divers langages de codage orientées objets, scripting, et des API REST & SOAP, etc. - Compétences avancées en gestion d’évènement Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics) - Connaissances avancées dans les architectures orientées événements Architecture et gestion des données : - Systèmes d’exploitation : Linux, Windows - Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics, etc.) - Utilisation de Github Compétences linguistiques : - Maîtrise du français (indispensable) - Anglais : niveau intermédiaire requis
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes