Cara, meus 2 cents no assunto.
Estive em uma situação similar e, pra TCC, eu sugeriria mudar o paradigma e trabalhar com algo não-supervisionado. Você muda totalmente a perspectiva: ao invés de ter uma ideia e, agora, ter que achar um dataset pra validar ela, você tem um dataset e, agora, só precisa extrair valor dele.
Eu gosto muito de métodos não-supervisionados e auto-supervisionados. Pra um TCC, acredito que trabalhar com algum método de clusterização ou redução de dimensionalidade seria muito legal, e te daria uma bagagem massa pra indústria também.
Agora, sugestões:
Se você topa fazer algo na área agrícola, experimente aplicar algum framework de SSL para diminuir a dependência em labels. Seria um TCC muito legal. Confira esses papers:
https://pubmed.ncbi.nlm.nih.gov/37040288/
https://www.mdpi.com/2072-4292/14/21/5500
Se SSL for muito fora da realidade, pode experimentar agrupar tipos de solo (clustering) ou detecção de anomalias (autoencoders, GANs) em sensores climáticos. Tem vários datasets públicos tipo da EMBRAPA ou até do Kaggle que vc pode usar. Você pode definir como objetivo ajudar na tomada de decisões (necessidade de irrigar, por exemplo) sem supervisão.
Se você quer fazer algo pra "clientes" (como mencionou drinks), pode trabalhar com agrupamento de usuários, por exemplo. É algo mais "batido", mas relevante sempre. Seu objetivo seria criar perfis de usuários (pense numa Netflix, "fãs de comédia", "fãs de ação", "usuários indecisos") sem rótulos, só com base nos dados que tem relacionados a eles.
No mais, eu fiz um trabalho pra uma matéria em que explorei clusterização de dados eleitorais. Segundo minha professora, pegar aquele trabalho e estender um pouco mais seria um TCC. Segue o link caso sirva de inspiração:
https://github.com/heitornolla/Analysis-of-Voter-Abstention-through-Clustering