Sam Bankman-Fried's Parents Ask Court to Dismiss FTX's Lawsuit Seeking to Recover Funds

CoinDeskPolicyPublié le 2024-01-16Dernière mise à jour le 2024-01-17

Résumé

Bankman and Fried, both professors at Stanford Law School, argued that Bankman did not have a fiduciary relationship with FTX .

Joseph Bankman and Barbara Fried, the parents of Sam Bankman-Fried, have asked a court to dismiss a lawsuit by the bankrupt cryptocurrency exchange FTX seeking to recover funds it alleges were fraudulently transferred.

FTX sought to “recover millions of dollars" from Bankman and Fried in Sept. 2023. Less than two months later, their son, Bankman-Fried, was found guilty on all seven charges of defrauding customers and the United States. His sentencing is expected in March.

Bankman and Fried, both professors at Stanford Law School, argued that Bankman did not have a fiduciary relationship with FTX and did not serve "as a director, officer, or manager," and even if a fiduciary relationship existed with FTX to plausibly allege a breach, according to a Jan 15. court filing.

Advertisement
Advertisement

Significantly, the court filing argued that it is not enough for FTX to plead that the parents “knew or should have known.” Instead, the filing argued that FTX should have produced specific facts showing “actual knowledge” that the parents “knew certain actions would result in a breach of fiduciary duty.”

In the Sept. 2023 lawsuit filing, FTX did not state the total amount Bankman and Fried may have misappropriated, but it did provide certain line items – Bankman received an annual salary of $200,000 for his role as a senior adviser to the FTX foundation, more than $18 million for the property in the Bahamas and $5.5 million in FTX Group donations to Stanford University, which the University has said will be returned.

Edited by Parikshit Mishra.

Lectures associées

Où se trouve le goulot d'étranglement dans la chaîne industrielle de l'IA Infra ?

L'industrie de l'infrastructure IA (AI Infra) fait face à des goulots d'étranglement systémiques à presque tous les niveaux, entravant le déploiement massif de la puissance de calcul nécessaire aux applications d'intelligence artificielle. Quatre principaux obstacles sont identifiés : Le « mur de la mémoire » : La demande croissante en mémoire à large bande (HBM) et DRAM pour l'inférence IA dépasse l'offre, les nouvelles capacités de production n'étant attendues qu'à partir de 2027. Le « mur de la bande passante » : La vitesse de calcul dépasse celle du transfert des données, créant des goulots à tous les niveaux (puces, serveurs, centres de données). L'énergie nécessaire pour déplacer les données dépasse parfois celle utilisée pour les calculs. Le « mur de calcul » : La fabrication de puces haut de gamme est limitée par la disponibilité des équipements de production avancés, notamment les machines de lithographie EUV (ASML), et par la chaîne d'approvisionnement mondiale complexe en matériaux et équipements spécialisés. Le « mur électrique » : Bien que la consommation énergétique des data centers IA soit énorme, ce défi est considéré comme plus gérable à moyen et long terme grâce aux énergies renouvelables. Au-delà de ces murs, l'expansion de la production est freinée par des pénuries en amont : * **Équipements de test (ATE)** : Essentiels pour tester à 100% les puces IA complexes, leur demande explose. * **Substrats IC/porteurs** : Un point de rupture critique. Ces composants, plus chers que les puces dans certains cas, sont indispensables pour le packaging avancé (2.5D/3D). Leur production, concentrée chez quelques fabricants taïwanais, est un goulot d'étranglement majeur pour des sociétés comme NVIDIA. * **Matériaux spéciaux** : Des « épices industrielles » comme les fibres de verre à faible CTE, les feuilles de cuivre spéciales et les forets de précision sont en pénurie. Leur haute technicité et leur production limitée menacent toute la chaîne. * **Salles blanches haute technologie** : La construction de ces environnements de production ultra-propres pour les puces et packaging avancés est un secteur à forte barrière technique et financière, en forte demande. Enfin, la connectivité dans les data centers évolue avec une compétition entre le cuivre et la fibre optique selon la distance : le cuivre regagne du terrain pour les courtes distances (<7m) grâce à son coût et sa fiabilité, des solutions hybrides (Micro LED) émergent pour les distances moyennes, et la fibre optique (dont la fibre creuse innovante) reste cruciale pour les longues distances. Les technologies de PCB et de substrats doivent également évoluer (plus de couches, substrats en verre) pour supporter la bande passante requise. En résumé, le développement de l'infrastructure IA est contraint par des limitations multidimensionnelles, de la fabrication fondamentale des puces aux matériaux et équipements spécialisés en amont. La recomposition des chaînes d'approvisionnement et l'évolution des technologies de connexion (cuivre/optique) façonneront l'avenir du secteur.

marsbitIl y a 20 mins

Où se trouve le goulot d'étranglement dans la chaîne industrielle de l'IA Infra ?

marsbitIl y a 20 mins

Autonomie ou compatibilité : Le choix de l'écosystème d'IA chinois derrière le report de DeepSeek V4

L'annonce du report de DeepSeek V4, un modèle d'IA open-source multi-modal de taille trillion de paramètres, a relancé le débat mondial sur la « dé-CUDA-isation ». Le modèle, initialement prévu pour début 2026, est en cours d'adaptation pour fonctionner sur les puces Ascend de Huawei via le framework CANN. Ceci représente un test crucial pour la faisabilité d'une infrastructure IA chinoise indépendante de l'écosystème CUDA de Nvidia. La complexité technique est immense. La migration vers Ascend, dont l'architecture matérielle et logicielle (CANN) est moins mature que CUDA, nécessite une réécriture profonde du code et une optimisation des opérateurs. Cela révèle que la compétition en IA est passée de la simple course aux paramètres à une bataille systémique sur l'infrastructure et l'ingénierie. Le report du V4 est le prix à payer pour cette indépendance. La domination quasi monopolistique de Nvidia, via son écosystème CUDA verrouillé, rend toute migration extrêmement difficile. La stratégie de Huawei avec CANN a été d'opter pour une compatibilité de haut niveau avec CUDA pour faciliter l'adoption, mais cette approche présente des limites. Elle risque de perpétuer une dépendance aux standards définis par Nvidia et pourrait freiner l'innovation fondamentale chinoise à long terme. Le défi est de taille : la compatibilité est nécessaire à court terme pour survivre, mais une véritable autonomie est cruciale pour définir les futures règles du jeu. Les 3 à 5 prochaines années seront décisives pour déterminer si l'écosystème IA chinois peut passer d'un statut de suiveur à celui de leader capable de définir ses propres paradigmes techniques, tout en maintenant une ouverture pour rester compétitif à l'échelle mondiale.

marsbitIl y a 39 mins

Autonomie ou compatibilité : Le choix de l'écosystème d'IA chinois derrière le report de DeepSeek V4

marsbitIl y a 39 mins

Trading

Spot
Futures
活动图片