Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 566 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Chef de projet fonctionnel Data sur Bordeaux

TECHNODYM
Publiée le
BigQuery
Dataiku

12 mois
100-450 €
Bordeaux, Nouvelle-Aquitaine

Technodym est a la recherche d'un Chef de projet fonctionnel Data pour son client basé a Bordeaux Fiche de poste : Mission : Mesurer les impacts du projet en s’intégrant à la feuille de route globale de la data Proposer des dispositifs adaptés auprès de l’ensemble de nos partenaires pour gérer au mieux cette double transformation auprès des utilisateurs Planifier des travaux, les prioriser avec le métier, piloter leur mise en œuvre auprès des partenaires et d’accompagner leur déploiement auprès des utilisateurs Savoir communiquer sur les activité auprès du programme et des équipes. Les atouts du profil: Savoir challenger les métiers Avoir une première expérience sur un projet Data/IA Avoir une bonne communication, savoir animer un groupe Forte capacité à savoir travailler en transverse Savoir gérer une crise et des ruptures de travail Avoir une connaissance en projet complexe et conduite du changement Une connaissance d’outils « Data » tels que Dataiku, BigQuery, … serait un plus Si vous êtes disponible et intéressé n'hésitez pas à m'envoyer votre CV

Freelance
CDI

Offre d'emploi
Data Engineer - Développeur JAVA / DevOps

OMICRONE
Publiée le
Apache Spark
CI/CD
Dataiku

1 an
10k-60k €
Île-de-France, France

Chers consultants, Nous sommes à la recherche d'un Ingénieur Data - Développeur JAVA / DevOps Senior pour rejoindre notre client, une banque leader à Paris. Missions La prestation aura lieu au sein de la banque exerce une responsabilité mondiale sur le Système d’Information contribuant à la réalisation des objectifs des métiers de la banque Commerciale, du Financement et du Trade. Dans ce contexte, la prestation Data Engineer (Développeur Java/DevOps) aura pour objectifs : • Comprendre les besoins clients dans le but de définir les solutions les plus adaptées • Assurer le développement des nouvelles fonctionnalités liées l’intégration, l’exposition et l’exploitation des Données • Définir et organiser les contrôles nécessaires à la mise en qualité de ces Données • Développer en Java/Spark/ des traitements de transformation et de production de données • Développement d’un moteur de règles • Être garant de la qualité du produit sur les aspects code, documentation, testabilité et performance • Designer des chaines optimisées CI/CD en collaboration avec les équipes DEVOPS • Participer à l'amélioration continue et à la revue de code

Freelance
CDI

Offre d'emploi
Delivery & Data Solutions Director

1G-LINK CONSULTING
Publiée le
.NET
Azure
Azure DevOps Server

6 mois
40k-66k €
Maurepas, Île-de-France

Pour un client dans le secteur de l'eau, nous recherchons un Delivery & Data Solutions Director. Contexte + Missions : Le client a entamé il y a 4 ans une transformation digitale. Cette transformation s’accompagne d’un changement de modèle opérationnel (offshoring) et une accélération de la transformation des SI (Neo – Ordonnancement , Naia – Contact Clientèle, Ioda – Monitoring & Alerting opérationel, Viseau – Relation B2Gov, Pure Control – Optimisation de consommation, etc.). Pour ce faire, la DSI s’appuie principalement sur 2 usines de développement : une Digital Factory hybrid France & Maroc, et un Centre de Delivery Offshore (India). Objectifs et livrables : La DSI France du groupe recherche aujourd’hui son Directeur du Delivery & Data Solutions. Intégré à la DSI France du client, sous l’autorité directe du DSI France, le Directeur du delivery & Data solutions a 2 responsabilités clés : 1 - Piloter les usines de Delivery en transverse, et organiser directement les activités de la Digital Factory (50+ ETP) : Ø Normes & standards de développement Ø Méthode & process de delivery (actuellement SAFE, Scrum & Waterfall selon les trains & squads) Ø Transformation DevSecOPS Ø Transformation vers le Test Driven Development & Automatisation Ø Qualité des développements & activités de run Ø Pilotage des enablers de delivery Ø Définition et suivi des indicateurs de performance Ø Gestion des budgets 2 – Responsabilité de bout en bout de l’équipe BI & Data solutions Ø Piloter les activités de BI de bout en bout : roadmap, technologie, organisation, delivery, run & maintain (stack Power BI, Décommissionnement SSRS & BO) Ø Delivery & technical ownership de la data platform (MS Azure) Pour mener à bien sa mission, le Directeur du Delivery & Data Solutions : Ø Pilotera une équipe de projects manager & experts techniques (profils RTE, Delivery Manager, Product Manager Data & BI, tech lead) Ø Pilotera en transverse les équipes de la digital factory Ø Pilotera les activités de Delivery chez nos partenaires de développement Ø Travaillera en transverse avec les autres domaines de la DSI, en particulier o Avec les 3 directeurs de Domaine Fonctionnel : Opérations, Clientèle, Corporate o Avec les directeurs de fonction transverse IT : architecture, sécurité, infrastructure, support, etc. o Avec les métiers

CDI

Offre d'emploi
Expert Dataiku (H/F/NB)

OPSKY
Publiée le
Dataiku
Intelligence artificielle
Python

55k-80k €
Île-de-France, France

Au sein d'une Direction Data d'un grand group, vous serez rattaché au Head of Data Science au sein d'une équipe composée de plusieurs Data Scientists et de Business Analysts. L'intelligence artificielle et la data science sont clés pour améliorer l'expérience client et et l'efficacité opérationnelle chez notre client qui recherche un Senior Data Scientist ayant une bonne maitrise des environnements technique ci-dessous. Les objectifs de cette équipe sont d'identifier des cas d'usage qui apportent de la valeur aux différentes fonctions (commerciales, marketing, opérations, finance, risques ...), de les réaliser et de les déployer dans le SI. En complément, l'équipe anime une communauté de Data Scientists afin de favoriser les réplications de cas d'usage et l'acculturation du groupe. L'intelligence artificielle (IA) et la data science est un pilier majeur du développement de notre client : • vous travaillerez sur des projets IA et Data Science visibles et stratégiques à forts enjeux financiers et humains pour une grande diversité de fonctions, de cas d'application et données. • vous avez de l’expérience en séries temporelles ainsi que dans l’extraction d’information à partir de document divers (OCR et Intelligent Document Processing). • vous contribuerez à la recherche et développement sur de nouveaux produits d'IA et de Data Science pour le groupe et en particulier sur des cas d'usage NLP et/ou GenAI. • vos projets seront de vrais défis techniques mais également humains. Vous devrez convaincre les métiers de se transformer grâce au Machine Learning et à la Generative AI. Développement des modèles de data science et d'intelligence artificielle sous Dataiku et Domino (code Python)

CDI
Freelance

Offre d'emploi
Développeur python / Big Data - GCP (H/F)

AGIL-IT
Publiée le
AWS Cloud
Dataiku
Google Cloud Platform

1 an
10k €
Issy-les-Moulineaux, Île-de-France

Missions : Le consultant interviendra au sein d’une équipe IT. La mission portera sur le suivi et la proposition de solution d'intégration / industrialisation des modèles algorithmiques développés par les équipes : Accompagnement des équipes Préconisations de bonnes pratiques de développement Python orienté ML Structuration de projet de type ML/DL Maitrise indispensable de l'outil Dataiku Bonnes connaissance DE GCP Intégration de containers Docker, Openshift Relais technique envers les interlocuteurs (francophone / anglophone) Participation aux projets suivant les sollicitations Gestion de l’environnement de DEV (Serveurs, BDD, etc.) Préconisations CI/CD

Freelance

Mission freelance
DATA SCIENTIST EXPERT

BEEZEN
Publiée le
Dataiku
KNIME
Python

1 an
100-600 €
Île-de-France, France

• Collecter, nettoyer et prétraiter des ensembles de données complexes provenant de diverses sources. • Concevoir, développer et mettre en œuvre des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problèmes commerciaux spécifiques. • Effectuer des analyses statistiques approfondies pour identifier des tendances, des modèles et des anomalies significatifs. • Collaborer avec les équipes interfonctionnelles pour comprendre les besoins métier et traduire ces besoins en solutions techniques. • Communiquer les résultats des analyses complexes aux parties prenantes non techniques. • Organiser, reporter et alerter les différents interlocuteurs et le responsable DaIA du déroulement des sujets

Freelance

Mission freelance
DATA ANALYST DATAIKU

BEEZEN
Publiée le
Data analysis
Dataiku
SAS

24 mois
100-550 €
Rueil-Malmaison, Île-de-France

Je recherche pour un de mes client un DATA ANALYST DATAIKU avec un anglais fluent ayant plus de 6 ans d ' experience afin d'intégrer la direction Data Office & RPA / Reporting Analytics nouvellement créée Vos activités principales consisteront à accompagner les métiers dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Les outils utilisés afin de répondre aux besoins de nos clients sont OBIEE Analytics, TABLEAU, SQL, SAS et Dataiku. Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe o Mettre en place une solution d’automatisation de la production d’un reporting o Automatiser la production du lineage d’un applicatif o Organiser des comités de pilotage o Construire un Dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs o Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données o Rédiger des spécifications II – Reporting et extractions • Extractions de données, y compris pour la construction des budgets • Construire des indicateurs • Créer et maintenir des Dashboard TABLEAU • Suivre les KPI

Freelance
CDD
CDI

Offre d'emploi
Architecte Data (FH)

Taleo Capital
Publiée le
BI
BigQuery
Data visualisation

6 mois
55k-65k €
Niort, Nouvelle-Aquitaine

Contexte Le consultant interviendra au sein de la Direction Data Office dans l’équipe Stratégie & Transformation Data. Principales Responsabilités : • Participer à la définition et à l'implémentation de l'architecture cible Data conformément aux besoins stratégiques de l'entreprise. • Assurer la conception et la mise en œuvre des solutions techniques liées aux projets Data, en mettant l'accent sur les outils Google Cloud Platform (GCS, BigQuery, Dataproc, Dataform, etc.). • Collaborer étroitement avec les équipes métier pour comprendre leurs besoins et proposer des solutions adaptées, tout en assurant une gouvernance et une conformité aux standards. • Contribuer à l'urbanisation des données en définissant des standards et des bonnes pratiques pour garantir la qualité et la cohérence des données. • Participer à la mise en place et à l'évolution des tableaux de bord permettant le pilotage des activités métier, en intégrant des fonctionnalités avancées telles que l'intelligence artificielle et l'automatisation des processus.

CDI
Freelance

Offre d'emploi
Architecte Solution F/H

NOOEH
Publiée le
Architecture
AWS Cloud
Dataiku

1 an
35k-70k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Contexte : Dans le cadre de l'équipe multiculturelle de l'Architecture des Solutions, vous jouerez un rôle essentiel dans la définition de l'évolution et de l'intégration des données dans le système d'information de nos clients. En tant qu'architecte spécialisé dans l'analyse des données, vous concevrez et livrerez des solutions d'architecture logicielle hautement sécurisées, résilientes et évolutives. Vous exploiterez votre expertise en modélisation, gouvernance, intégration et sécurité des données, ainsi que votre maîtrise de Python pour soutenir les développeurs. Votre expérience avec les datamarts et les meilleures pratiques d'agrégation des données seront précieuses. Vous avez une expérience significative dans la conception et le déploiement de solutions sur AWS, conformément aux normes GDPR et NIS. En tant que leader, vous communiquerez clairement vos choix d'architecture et soutiendrez les équipes de projet. Mission : Veiller en permanence à ce que les évolutions intervenant dans le cadre de la mission respectent la cohérence et la pertinence fonctionnelle de l’ensemble du système d’information et de l’architecture cible. Piloter et contrôler l’intégration et l’adaptation fonctionnelles des éléments mis en place dans le cadre de la mission. Assurer un support méthodologique et fonctionnel aux différentes équipes impactées par les éléments mis en place dans le cadre de la mission (données, services,…). Intégrer en permanence une démarche qualité (mise en œuvre de référentiels de bonnes pratiques, implantation de démarches fondées sur l'amélioration continue).

Freelance

Mission freelance
Expert Dataiku Python, Git, Power BI

HIGHTEAM
Publiée le
Dataiku
Microsoft Power BI
Python

3 ans
500-650 €
Île-de-France, France

Au sein de l’équipe Data, nous développons des outils et des applications et accompagnons l’ensemble de l’équipe business team dans leur digitalisation, notamment au travers de Dataiku et Amazon Web Services. The main activités are: • Dataiku platform administrations • Development of Dataiku plugins (in python) • Mentoring of our users (Data Analyst, Data Engineers, Data Scientists) on Dataiku platform • Support level 1 on Dataiku platform Secondary activities: • Data use case implementation through Dataiku

Freelance

Mission freelance
Développeur .Net/Python (projet IA) Apya

APYA
Publiée le
.NET
Azure
Machine Learning

6 mois
100-550 €
Paris, France

L'application de gouvernance des modèles de ML pour notre client vise à interroger diverses ressources telles que Azure Machine Learning, Azure Databricks, AWS Databricks et AWS Sagemaker afin de récupérer les métadonnées des modèles d'IA qui y sont hébergés. Ensuite, ces métadonnées sont stockées et une API est mise en place pour permettre à un front-end de les consommer et de les afficher dans un tableau de bord, facilitant ainsi le suivi des modèles en termes de mise à jour, d'utilisation et de performance. L'équipe devra prendre en charge les tâches suivantes : Développement, mise à jour et maintenance du code infrastructure Terraform requis dans Azure et/ou AWS, en respectant les règles de sécurité et les pratiques internes du client. Gestion des workflows Github pour automatiser les déploiements et analyser le code. Développement, mise à jour et maintenance du code back-end permettant de récupérer les métadonnées provenant de Azure ML, Databricks ou Sagemaker. Stockage des métadonnées des modèles dans une base de données et mise à jour régulière de celles-ci. Exposition d'une API pour que les données soient consommées par un front-end (le front-end étant en dehors du périmètre du projet). Concernant la Plateforme LLM Hub du client : La plateforme LLM Hub du client fournit aux équipes de développement un accès aux LLM tels que OpenAI/Mistral via Azure, Claude via AWS Bedrock, et éventuellement d'autres à l'avenir. Son objectif est de centraliser la consommation des modèles, gérer le reporting de cette consommation et optimiser les coûts grâce à un provisionnement du débit. L'équipe devra également gérer les tâches suivantes pour la Plateforme LLM Hub : Développement, mise à jour et maintenance du code infrastructure Terraform nécessaire dans Azure et/ou AWS, en conformité avec les règles de sécurité et les pratiques internes du client. Gestion des workflows Github pour automatiser les déploiements et analyser le code. Développement, mise à jour et maintenance du code back-end permettant l'exposition des APIs d'OpenAI et Mistral sur un API Manager centralisé, ainsi que des fonctions permettant de suivre la consommation des applications sur Azure et AWS. Développement de plugins visant à faciliter, optimiser et accélérer le développement des applications exploitant les LLM. Possibilité d'utiliser des connaissances en React pour mettre à jour une interface web développée pour gérer une application de chatbot. Veille technologique sur les nouvelles solutions de LLM et leur intégration dans la plateforme. Les technologies utilisées comprennent : Terraform pour Azure et AWS, Azure OpenAI, Azure Mistral, AWS Bedrock, Github, Github Actions, Github Workflows, Python, dotnet, React, Azure Function, AWS Lambda, Azure API Manager, Azure Container Apps/Container Instance, CosmosDB et SQLDB. TJM : 550€ - 2 jours de télétravail par semaine

Freelance

Mission freelance
Administrateurs SIEM/SOAR

DATACORP
Publiée le
Administration linux
Ansible
Bash

12 mois
100-450 €
Noisy-le-Grand, Île-de-France

Description de la mission Evolution dans un environnement international Design de Solutions - Conception et mise en place de SIEM Maintien en conditions opérationnelles et de sécurité des différentes solutions de sécurité Supervision et intervention sur les incidents de production Support aux équipes projets sur des points complexes relevant de votre domaine de compétence Mise en œuvre de solutions d’automatisation Application et développement des bonnes pratiques métier et de sécurité Amélioration continue des outils et des processus Compétences techniques et fonctionnelles Administration SIEM : Splunk, QRadar, MS Azure Sentinel Administration orchestration SOAR (Palo Alto, Splunk) Administration système Linux (Ubuntu, CentOS) Architecture technique et fonctionnelle Design de solutions Automatisation : Ansible, Docker, Terraform Supervision : Centreon, Zabbix Scripting : Python, Bash, html Solutions Backup/Restore Architecture technique Localisation 1 profil à Toulouse 1 profil à Paris / Noisy Le Grand

Freelance
CDI

Offre d'emploi
EXPERT INTÉGRATION SOLUTION HYPERVISION BMC SENIOR (+ 12ans d'expérience )

Digistrat consulting
Publiée le
Git
Github
Perl (langage)

3 ans
40k-60k €
Paris, France

Périmètre fonctionnel : banque d'investissement / front Les principales tâches de la missions sont les suivantes : Assistance aux projets de convergeance des outils d'hypervision Participation au projets d'études pui mise en oeuvre d'une nouvelle solution d'hypervision Gestion des évolutions et des intégrations du moyen Support, expertise et assistance technique des entités, d’exploitation et de support de production Gestion de l'industrialisation et la gestion des améliorations du service d'hypervision Gestion de l’intervention en escalade sur le diagnostic et la résolution d’incidents ou problèmes Développements avancé et les configurations de l'outil Développement d'outils Développement : Shell, Script, Python Les livrables attendus sont : Assistance aux projets d'évolutions de l'infra d'hypervision Réalisation des Pocs Evolution des actions prises en charge Mise à jour de la documentation

Freelance
CDI

Offre d'emploi
Ingénieur(e) test QA Comptabilité H/F

DSI group
Publiée le
Comptabilité
Confluence
Python

1 an
42k-52k €
Île-de-France, France

Nous recherchons pour l’un de nos clients, un(e) Ingénieur(e) test QA Comptabilité H/F, basé en Ile-de-France . Contexte : La mission se déroulera au sein de la DSI, au sein d'un programme sur la mise en place de la comptabilité auxiliaire. Dans ce cadre, vos principales missions seront : Qualification du périmètre comptable dans le cadre du projet Rédactions sous SQUASH et exécutions des cas de tests dans le cadre de la qualification comptable Afin d'exercer au mieux la mission, avoir la capacité à appréhender le métier de la retraite et un périmètre fonctionnel et technique complexe, Environnements techniques : Squash/ Confluence Vous avez une maitrise des différents langages de script notamment sur Python. Test de l'interface utilisateur et front-end avec des frameworks comme Selenium. Une connaissance du logiciel de comptabilité Célia est un plus

Freelance

Mission freelance
Architecte Data Azure et Snowflake

Inventiv IT
Publiée le
Azure
BigQuery
Databricks

12 mois
660-780 €
La Défense, Île-de-France

Architecte Data Azure et Snowflake . - Il maîtrise le panel des exigences fonctionnelles et non fonctionnelles à collecter afin d'assurer l'efficience opérationnelle et la pérennité de la data platform. - Expert et maîtrise tous les outils et services de l’écosystème Azure et a des facilités pour étendre votre champ de compétences. - proactif/ve sur la veille technique et la capitalisation et veille à garder toujours un temps d'avance sur l'état de l'art du secteur afin de pouvoir guider ses clients. - En tant qu'architecte expérimenté(e) il peut intervenir sur des missions opérationnelles pour concevoir la solution cible ou en phase de cadrage amont pour guider les choix et construire les roadmaps. - pédagogue et sait communiquer et vulgariser des réflexions complexes pour les rendre accessibles à tous.

Freelance

Mission freelance
Développeur Backend DATA

Freelance.com
Publiée le
Azure
Elasticsearch
Python

1 an
400-650 €
Levallois-Perret, Île-de-France

Pour notre client dans le secteur du luxe, nous recherchons un Développeur Back-end Data. Anglais courant obligatoire. Freelance uniquement. Durée mission : 8 mois Contexte de la mission : XXX recherche un développeur backend Data event pour renforcer son équipe d’observabilité. Il/elle possédera une expertise technique approfondie en développement Backend au sein d’un écosystème Azure sur une architecture orientée évènement. Objectifs/Descriptif de mission : - Concevoir et implémenter des solutions d’intégration et de transformation de données (ETL) pour améliorer le service d’observabilité (évènements temps réel) - Collaborer activement au développement et à l’optimisation de notre plateforme d’observabilité. - Collecter des données de sources diverses et modéliser ces données pour en simplifier la visualisation et l’analyse. Compétences techniques requises : Technologies Backend : - ElasticSearch ET Logstash (expertise obligatoire) - SQL (expertise obligatoire) - Python (expertise obligatoire) - Maîtrise de divers langages de codage orientées objets, scripting, et des API REST & SOAP, etc. - Compétences avancées en gestion d’évènement Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics) - Connaissances avancées dans les architectures orientées événements Architecture et gestion des données : - Systèmes d’exploitation : Linux, Windows - Cloud Azure (Azure Blob Storage, Azure fonctions, Event hub, Azure Log Analytics & Metrics, etc.) - Utilisation de Github Compétences linguistiques : - Maîtrise du français (indispensable) - Anglais : niveau intermédiaire requis

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous